栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 面试经验 > 面试问答

具有很长的start_urls列表和来自蜘蛛的url的Scrapy Crawling URL的顺序

面试问答 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

具有很长的start_urls列表和来自蜘蛛的url的Scrapy Crawling URL的顺序

首先,请参阅此主题-我想您会在这里找到所有答案。

下载者使用的网址的顺序?仅在使用所有start_url之后,下载程序才会使用just_test1,just_test2发出的请求吗?(我进行了一些测试,答案似乎是否定的)。

您说得对,答案是

No
。该行为是完全异步的:启动蜘蛛程序后,
start_requests
将调用(source)方法:

def start_requests(self):    for url in self.start_urls:        yield self.make_requests_from_url(url)def make_requests_from_url(self, url):    return Request(url, dont_filter=True)

什么决定顺序?为什么和如何执行此命令?我们如何控制它?

默认情况下,没有预先定义的顺序-你可以不知道什么时候

Requests
make_requests_from_url
抵达的-它是异步的。

请参阅此答案以了解如何控制订单。长话短说,您可以使用键覆盖

start_requests
并标记“
yield” (如)。例如,的值可以是找到网址的行号。
Requests``priority``yield Request(url,meta={'priority': 0})``priority

这是处理文件中已包含许多URL的好方法吗?还有什么?

我认为您应该直接在

start_requests
method中读取文件并产生url
:请参阅此答案。

因此,您应该这样做:

def start_requests(self):    with precs.open(self.file_path, u"r", encoding=u"GB18030") as f:        for index, line in enumerate(f): try:     url = line.strip()     yield Request(url, meta={'priority': index}) except:     continue

希望能有所帮助。



转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/431469.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号