栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

资产收集—爬取百度搜索URL脚本

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

资产收集—爬取百度搜索URL脚本

谷歌语法在收集资产这方面挺有用的,于是手撸了爬取百度URL脚本,后续和AWVSapi脚本联动实现自动化挖洞

代码完整截图:
使用方法:

第一步输入爬取的页数,这里演示的是爬取5页
第二步输入百度搜索的字符串,这里爬取163.com的子域名
第三步输入保存文件名称,这里是www.txt

爬取的局部URL

代码解析:
该代码采用的是单线程,如果想爬取速度快一点可以自行改为多线程
百度搜索有爬虫检测机制,所以要定制header
search为要搜索的字符串,因为百度搜索的字符串经过了URL编码,所以我们也编码一下,num是页码,因为百度的第一页为0,第二页为10,第三页为20,所以num要乘以10

完整的百度搜索URL
使用XPATH来解析爬取到的百度页面
XPATH详解:https://www.runoob.com/xpath/xpath-syntax.html

因为百度搜索的每个标题对应的html格式如下
所以提取属性为target="_blank"的a标签的herf的值

提取之后包含了一些脏URL,所以要去掉

在对上面提取的URL进行请求后,发生了302跳转,Location位置为真实链接,所以我们提取Location位置的URL就行了
当我们用request时要用try来捕捉异常,有时请求太频繁会出现异常,这时睡眠1秒再请求。
这里我去掉了百度知道,百度百科等一些链接,但是就不能爬取百度资产了,如果你们想爬取百度资产,可以去掉或改为具体域名。

然后去掉重复URL

最后写到要保存的文件里面

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/498901.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号