栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 面试经验 > 面试问答

使用scrapyd一次运行多个scrapy蜘蛛

面试问答 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

使用scrapyd一次运行多个scrapy蜘蛛

我一次运行200个以上Spider的解决方案是为该项目创建一个自定义命令。有关实现自定义命令的更多信息,请参见http://doc.scrapy.org/en/latest/topics/commands.html#custom-
project-commands

YOURPROJECTNAME / commands / allcrawl.py

from scrapy.command import ScrapyCommandimport urllibimport urllib2from scrapy import logclass AllCrawlCommand(ScrapyCommand):    requires_project = True    default_settings = {'LOG_ENABLED': False}    def short_desc(self):        return "Schedule a run for all available spiders"    def run(self, args, opts):        url = 'http://localhost:6800/schedule.json'        for s in self.crawler.spiders.list(): values = {'project' : 'YOUR_PROJECT_NAME', 'spider' : s} data = urllib.urlenpre(values) req = urllib2.Request(url, data) response = urllib2.urlopen(req) log.msg(response)

确保在您的settings.py中包含以下内容

COMMANDS_MODULE = 'YOURPROJECTNAME.commands'

然后,从命令行(在项目目录中),您只需键入

scrapy allcrawl


转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/651612.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号