pyspider和Scrapy具有相同的目的,即网页抓取,但对此目的的看法不同。
spider永远都不要停止,直到WWW死了。(信息被改变,数据在网站更新,蜘蛛应该有刮最新数据的能力和责任。这就是为什么pyspider具有URL数据库,强大的调度,
@every,age
,等..)pyspider比框架更能提供服务。(组件在隔离的进程中运行,精简版
- all
版本也作为服务运行,你不必具有Python环境,而是浏览器,有关获取或调度的所有操作均由脚本通过API控制,而不是由启动参数或全局配置,资源/项目控制由pyspider等管理)。pyspider是一个spider系统。(可以替换任何组件,甚至可以用C / C ++ / Java或任何语言开发,以提高性能或扩大容量)
和
- on_start vs start_url
- token bucket traffic control vs download_delay
- return json vs class Item
- message queue vs Pipeline
- built-in url database vs set
- Persistence vs In-memory
- PyQuery + any third package you like vs built-in CSS/Xpath support
PyQuery +你喜欢的任何第三个软件包与内置CSS / Xpath支持
实际上,我对Scrapy的引用并不多。pyspider与Scrapy确实不同。



