栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

Python爬虫爬取豆瓣top250

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

Python爬虫爬取豆瓣top250

安装相应库以后,直接复制代码,运行,输入起始页码 1,截至页码 10,就可以了,

豆瓣是一页25条数据(现在是2022年5月1日,以后人家更新具体会换每页几条数据不确定,但是随之页码也要换,不换就有可能报错)

import urllib.request
import urllib.parse
def create_request(page):

    base_url = "https://movie.douban.com/top250?"
    data={
        'start':(page-1)*25,
        'filter':20
        }


    data= urllib.parse.urlencode(data)
    url = base_url + data
    print(url)
    headers={
        # 'User - Agent': 'Mozilla / 5.0(WindowsNT10.0;Win64;x64) AppleWebKit / 537.36(KHTML, likeGecko) Chrome / 99.0.4844.51Safari / 537.36Edg / 99.0.1150.39'
        'Cookie': 'll="118161"; bid=5cBVpNqid80; _vwo_uuid_v2=D45E4E4B1EAE7035F4686A86B9A0C0134|17ac109a1ce3a940cd607eea69989c60; __utmc=30149280; __utmc=223695111; ap_v=0,6.0; __gads=ID=032c05146012f52c-22deaa68eed10084:T=1649916778:RT=1649916778: S=ALNI_MZ6cKzkpPoKMyiGFtLc6oVMSvkQww; __utma=30149280.638397394.1649408408.1649916715.1649920526.3; __utmb=30149280.0.10.1649920526; __utmz=30149280.1649920526.3.3.utmcsr=cn.bing.com|utmccn=(referral)|utmcmd=referral|utmcct=/; __utma=223695111.1472431755.1649408412.1649916715.1649920526.3; __utmb=223695111.0.10.1649920526; __utmz=223695111.1649920526.3.3.utmcsr=cn.bing.com|utmccn=(referral)|utmcmd=referral|utmcct=/; _pk_ref.100001.4cf6=%5B%22%22%2C%22%22%2C1649920526%2C%22https%3A%2F%2Fcn.bing.com%2F%22%5D; _pk_id.100001.4cf6=826d7eb61914769a.1649408412.3.1649920526.1649917562.; _pk_ses.100001.4cf6=*',
        'DNT': ' 1',
        'Host': ' movie.douban.com',
        'Referer':' https://cn.bing.com/',
        'User-Agent': ' Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/100.0.4896.75 Safari/537.36 Edg/100.0.1185.36',
    }
    request=urllib.request.Request(url=url,headers=headers)
    return request
def get_content(request):
    response=urllib.request.urlopen(request)
    content=response.read().decode('utf-8')
    return content
def download(page,content):
    with open('./豆瓣top250/douban_'+str(page)+'.json','w',encoding='utf-8')as fp:   #     你需要在同文件夹下创建名字为 豆瓣top250的文件夹  不然会报错找不到文件夹
        fp.write(content)

if __name__ == '__main__':
    start_page = int(input('请输入开始:'))
    end_page = int(input('请输入结束:'))
    for page in range(start_page,end_page+1):
         request=create_request(page)
         content=get_content(request)
         download(page,content)

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/854324.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号