栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 面试经验 > 面试问答

Running Scrapy spiders in a Celery task

面试问答 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

Running Scrapy spiders in a Celery task

好的,这就是我如何使Scrapy与我的Django项目一起工作的,该项目使用Celery来排队要爬网的内容。实际的解决方法主要来自位于http://snippets.scrapy.org/snippets/13/的 joehillen的代码。

首先

tasks.py
文件

from celery import task@task()def crawl_domain(domain_pk):    from crawl import domain_crawl    return domain_crawl(domain_pk)

然后

crawl.py
文件

from multiprocessing import Processfrom scrapy.crawler import CrawlerProcessfrom scrapy.conf import settingsfrom spider import DomainSpiderfrom models import Domainclass DomainCrawlerscript():    def __init__(self):        self.crawler = CrawlerProcess(settings)        self.crawler.install()        self.crawler.configure()    def _crawl(self, domain_pk):        domain = Domain.objects.get( pk = domain_pk,        )        urls = []        for page in domain.pages.all(): urls.append(page.url())        self.crawler.crawl(DomainSpider(urls))        self.crawler.start()        self.crawler.stop()    def crawl(self, domain_pk):        p = Process(target=self._crawl, args=[domain_pk])        p.start()        p.join()crawler = DomainCrawlerscript()def domain_crawl(domain_pk):    crawler.crawl(domain_pk)

这里的窍门是“来自多处理导入过程”,它解决了Twisted框架中的“ ReactorNotRestartable”问题。因此,基本上Celery任务调用了“ domain_crawl”函数,该函数反复使用“ DomainCrawlerscript”对象来与Scrapy蜘蛛进行交互。(我知道我的示例有点多余,但是我这样做是出于我使用多个版本的python的原因[我的django Web服务器实际上正在使用python2.4,而我的工作服务器使用python2.7])

在我的示例中,“ DomainSpider”只是一个经过修改的Scrapy Spider,它接收URL列表,然后将其设置为“ start_urls”。



转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/411150.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号