栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Java

Python爬虫从入门到精通:(28)scrapy数据持久化存储(基于终端指令)

Java 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

Python爬虫从入门到精通:(28)scrapy数据持久化存储(基于终端指令)

scrapy数据持久化存储(基于终端指令):

上节我们爬取到了内容,那么我们怎么做持久化存储呢?

直接在parse方法中进行 with open() as f ?

如果是这样的话,那我们就没必要使用框架了。

scrapy框架中,我们封装好了持久化存储

import scrapy

class DuanziSpider(scrapy.Spider):
    name = 'duanzi'
    # allowed_domains = ['www.xxx.com']
    start_urls = ['https://duanzixing.com/段子/']

    def parse(self, response):
        article_list = response.xpath('/html/body/section/div/div/article')
        for article in article_list:
            title = article.xpath('./header/h2/a/@title').extract_first()
            note = article.xpath('./p[2]/text()').extract_first()

这是我们上节课获取数据的爬虫文件源码,我们该怎样利用框架进行持久化存储title和note呢?


基于终端指令的持久化存储

  • 这种方法的实现:该种方式只可以将parse方法的返回值存储到本地制定后缀的文本文件中。
  • 执行指令:scrapy crawl spiderName -o filePath

那么我们先创建个列表存储数据,并返回:

def parse(self, response):
    all_data = []
    article_list = response.xpath('/html/body/section/div/div/article')
    for article in article_list:
        title = article.xpath('./header/h2/a/@title').extract_first()
        note = article.xpath('./p[2]/text()').extract_first()
        dic = {
            'title': title,
            'note': note
        }
        all_data.append(dic)
    return all_data

存储只需一条终端指令:

scrapy crawl duanzi -o duanzi.txt

我们发现报错了!~ 错误解释是 只能保存json、csv等格式文件

那么久来保存下csv格式的

scrapy crawl duanzi -o duanzi.csv

然后我们就看到保存成功了!.

关注Python涛哥!学习更多Python知识!

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/315110.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号