栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

Python爬虫学习笔记(一)之初识Urllib

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

Python爬虫学习笔记(一)之初识Urllib

学习爬虫首先要了解爬虫是什么,爬虫的工作原理。

经过简单的学习后,可以了解到爬虫,是以编程方式实现的,对网页信息进去爬取的脚本。实现的主要方式为使用模块(如urllib)获取网页对象,读取,使用解析模块(如re)解析对象。提取需要的信息存储到数据库。

了解到基本原理之后就是实操演练。

导入需要用到的模块

import re
import urllib.request
from urllib import request
url = '网址/' + chapter1 + '/' + chapter2 + '.html'
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.182 Safari/537.36'}
req = request.Request(url=url, headers=headers)
res = request.urlopen(req)
html = res.read().decode('gbk')

url为网站连接,chapter1和chapter2为拼接连接的参数。headers为浏览器请求头模拟,req构建请求对象,res获取请求对象,html读取请求对象,并以GBK的方式解码。

pattern1 = re.compile('    (.*?)<', re.S)
pattern2 = re.compile('(.*?)', re.S)
re_list = pattern1.findall(html)
sa = pattern2.findall(html)
num = len(re_list)
st.header(sa[0])
for i in range(num):
    st.info(re_list[i])

patten1和patten2创建正则表达式对象。findall匹配获取。使用for循环打印解析完的对象并用streamlit显示。

效果如图(删除)。添加了数据库存储,使用streamlit布局按钮实现动态翻页。

吐槽:审核不通过真是绝了,,,,,

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/503944.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号