首先我们导入requests库,
requests模块:python中原生的一款基于网络请求的魔力,功能非常强大。简单便捷,效率极高。
首先我们 pip install requests 导入request 库
如何使用requests模块:(requests模块的编码流程)
1.url
2.发起请求
3.获取响应数据
4.持久化存储
#指定url
url='https://www.baidu.com/'
#发送请求
#get方法会返回一个响应对象
response=requests.get(url=url)
#获取响应数据 text返回的是字符串的响应对象
page_text=response.text
print(page_text)
#持久化存储
with open('./sougou.html','w',encoding='utf-8') as fp:
fp.write(page_text)
print("over!")
这就是一个简单的爬百度主页的爬虫流程



