栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

Python爬虫从入门到精通:(25)scrapy框架02

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

Python爬虫从入门到精通:(25)scrapy框架02

scrapy的基本使用

  1. 创建一个工程

    • 命令:scrapy startproject ProName
    # 比如这里我创建一个工程,名字叫demoPro
    # 打开终端,输入:
    scrapy startprojiect demoPro
    

  • 目录结构

    这里先介绍2个,后续学习中再介绍其他

 `spiders`文件夹:爬虫文件夹

 	-  必须要存放一个爬虫源文件 

 `settings.py` : 工程的配置文件
  1. cd ProName

    创建好工程后,我们需要先进入项目目录

    # 在终端输入
    cd demoPro
    
  2. 创建爬虫源文件

    • 命令:scrapy genspider spiderName www.xxx.com

    • 编写对应的代码在爬虫文件中

其中:

- demo 是爬虫源文件的名称
- 网址可以先随便写

然后我们来看下默认生成的代码:

  1. 执行工程

    我们修改下要爬虫的网址

    import scrapy
    
    class DemoSpider(scrapy.Spider):
        name = 'demo'
        allowed_domains = ['www.baidu.com']
        start_urls = ['https://www.baidu.com/']
    
        def parse(self, response):
            pass
    

    执行工程命令:scrapy crawl spiderName

    # 终端输入
    scrapy crawl demo
    

上面就是scrapy基本操作使用步骤!
但我们看到,并没有爬取到我们想要的结果,难道还需要设置什么吗?

是的!我们下节课来学习scapy的简单爬虫配置!
关注Python涛哥!学习更多Python知识!

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/313407.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号