栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

【笔记】慕课-Python网络爬虫与信息提取-Scrapy框架(3)

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

【笔记】慕课-Python网络爬虫与信息提取-Scrapy框架(3)

实例4 股票数据Scrapy爬虫
scrapy startproject BaiduStocks
cd BaiduStocks
scrapy genspider stocks baidu.com
进一步修改spiders/目录下的stocks.py文件
  • 配置stocks.py文件
  • 修改对返回页面的处理
  • 修改对新增URL爬取请求的处理

源代码:

import scrapy
import re

class StocksSpider(scrapy.Spider):
    name = "stocks"
    start_urls = ['https://quote.eastmoney.com/stocklist.html']

    def parse(self, response):
        for href in response.css('a::attr(href)').extract():
            try:
                stock = re.findall(r"[s][hz]d{6}", href)[0]
				#匹配sh或sz的六位股票代码
                url = 'https://gupiao.baidu.com/stock/' + stock + '.html'
                yield scrapy.Request(url, callback=self.parse_stock)
				#将上述构造的url作为新的请求重新提交给scrapy框架
				#用yield关键词将parse函数变成一个生成器
				#callback给出了处理这个url对应响应的处理函数,为了与当前的页面处理函数parse进行区别,新定义的处理函数命名为parse_stock
            except:
                continue

    def parse_stock(self, response):	#把最后提取的信息返回给item pipeline,是一个字典类型
        infoDict = {}		#用于存储要返回给item pipeline的信息,定义一个字典类型的空字典
        stockInfo = response.css('.stock-bets')
        name = stockInfo.css('.bets-name').extract()[0]
        keyList = stockInfo.css('dt').extract()
        valueList = stockInfo.css('dd').extract()
        for i in range(len(keyList)):
            key = re.findall(r'>.*', keyList[i])[0][1:-5]
            try:
                val = re.findall(r'd+.?.*', valueList[i])[0][0:-5]
            except:
                val = '--'
            infoDict[key]=val

        infoDict.update(
            {'股票名称': re.findall('s.*(',name)[0].split()[0] + 
             re.findall('>.*<', name)[0][1:-1]})
        yield infoDict
		#用yield关键词将parse_stock函数变成一个生成器
		#将股票信息给到后续处理的item pipeline模块
编写Pipelines
  • 配置pipelines.py
  • 定义对爬取项(Scraped Item)的处理类
    源代码:
# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: https://doc.scrapy.org/en/latest/topics/item-pipeline.html

class BaidustocksPipeline(object):
    def process_item(self, item, spider):
        return item

#新定义一个类:通过配置文件让框架找到新定义的这个类并且用这个类来处理spider提出的提取相关item类的信息
class BaidustocksInfoPipeline(object):
    def open_spider(self, spider):		#当一个爬虫被调用时对应的pipeline启动的方法
        self.f = open('BaiduStockInfo.txt', 'w')

    def close_spider(self, spider):		#当一个爬虫关闭或结束时pipeline对应的方法
        self.f.close()

    def process_item(self, item, spider):	#对每一个item项进行处理时对应的方法,pipeline中最主体的函数
		try:
			#将获得的股票字典信息写入一个文件
            line = str(dict(item)) + 'n'
            self.f.write(line)
        except:
            pass
        return item
		#希望其他函数也可以处理这个item,因此返回这个item
修改配置文件的选项ITEM_PIPELINES
  • 将新定义的类写入其中的参数对应行中
  • 让框架找到新定义的类

settings.py
修改的区域:

# Configure item pipelines
# See https://scrapy.readthedocs.org/en/latest/topics/item-pipeline.html
ITEM_PIPELINES = {
    'BaiduStocks.pipelines.BaidustocksInfoPipeline': 300,
}	
实例优化:进一步提高爬取速度 settings.py配置并发连接选项:
  • CONCURRENT_REQUESTS Downloader最大并发请求下载数量,默认32
  • CONCURRENT_ITEMS Item Pipeline最大并发ITEM处理数量,默认100
  • CONCURRENT_REQUESTS_PER_DOMAIN 每个目标域名最大的并发请求数量,默认8
  • CONCURRENT_REQUESTS_PER_IP 每个目标IP最大的并发请求数量,默认0,非0有效

修改这些参数所对应的默认值,通过改变并发数量来提高或降低爬取速度

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/269225.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号