栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

scrapy定时任务爬虫报错:twisted.internet.error.ReactorNotRestartable

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

scrapy定时任务爬虫报错:twisted.internet.error.ReactorNotRestartable

一开始是用的这种方法,发现不行,不知道什么原因,我测试的时候要么运行一次,要么运行两次,反正后面程序就是不跑了。。。

import os
import sched
import time

from scrapy.commands import ScrapyCommand
from scrapy.utils.project import get_project_settings
schedule = sched.scheduler(time.time, time.sleep)


# 被周期性调度触发的函数
def func():
    os.system("scrapy crawl bai")
    os.system("scrapy crawl sync_handel")
    # os.system("scrapy crawl ***")

def perform1(inc=60*10):
    schedule.enter(inc, 0, perform1, (inc,))
    func()

def mymain():
    schedule.enter(0, 0, perform1, (600,))

if __name__ == "__main__":
    mymain()
    schedule.run()

一顿艰辛的搜索尝试,最后用的这种方法可以了 

​
import scrapy
from scrapy.crawler import CrawlerProcess
from scrapy.utils.project import get_project_settings
from twisted.internet import reactor
from twisted.internet.task import deferLater

def sleep(self, *args, seconds):
    """Non blocking sleep callback"""
    return deferLater(reactor, seconds, lambda: None)

process = CrawlerProcess(get_project_settings())

def _crawl(result, spider):
    deferred = process.crawl(spider)
    deferred.addCallback(lambda results: print('waiting 100 seconds before restart...'))
    deferred.addCallback(sleep, seconds=100)
    deferred.addCallback(_crawl, spider)
    return deferred


_crawl(None, 'bai') # 第二个参数是爬虫名
_crawl(None, 'sync_handel')
process.start()

​

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/286503.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号