栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

One Piece 海贼王动漫壁纸 Python 爬取!

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

One Piece 海贼王动漫壁纸 Python 爬取!

我知道没有图片你们是不会看下去的...

日本文化输出非常厉害,比如说动漫,火影忍者的完整让不少人都感叹:“爷青结”,当然还有入土都难以完结的动漫,比如名侦探河南,不对,手抖了,柯南,当然还有下面我们要爬取的动漫壁纸,海贼王ONE PIECE(ワンピース)!

01

网站分析

随意百度搜索找的一个网站!

目标网址:

https://www.ivsky.com/bizhi/one_piece_t571/

很明显,一个列表页,一共有24个链接,对应的24个图片,可惜只有缩略图!

所以,从列表页应该是获取不到大图的图片地址,考虑从内页获取!

继续观察列表页路径地址:

https://www.ivsky.com/bizhi/one_piece_t571/index_2.html

很明显的数字id型列表页,知晓总的列表页数目,就可以构造访问了!

当然需要注意的是,首页的列表页即为入口页,构造访问路径的时候用一个判断处理就可以实现了!

02

代码编写

引用库

import requests,time
from lxml import etree

列表链接源码

列表链接xpath获取

hrefs=tree.xpath('//ul[@]/li/div[@]/a/@href')

详情页图片源码

详情页图片链接xpath获取

img_url=tree.xpath('//img[@id="imgis"]/@src')[0]

第一版参考:

# one_piece 天堂图片网 图片采集
# https://www.ivsky.com/bizhi/one_piece_t571/index_2.html
# 20211105 by 微信:huguo00289
# -*- coding: UTF-8 -*-
import requests,time
from lxml import etree




def get_imghrefs(url):
    # url = "https://www.ivsky.com/bizhi/one_piece_t571/index_2.html"
    headers={"user-agent":"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36"}
    response=requests.get(url=url,headers=headers,timeout=6)
    print(response.status_code)
    html=response.content.decode('utf-8')
    tree=etree.HTML(html)
    hrefs=tree.xpath('//ul[@]/li/div[@]/a/@href')
    print(len(hrefs))
    print(hrefs)


    img_hrefs=[]
    for href in hrefs:
        href=f'https://www.ivsky.com{href}'
        img_hrefs.append(href)


    return img_hrefs




def get_img(url):
    #url="https://www.ivsky.com/bizhi/one_piece_v36640/pic_599277.html"
    headers = {
        "user-agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36"}
    response = requests.get(url=url, headers=headers, timeout=6)
    print(response.status_code)
    html = response.content.decode('utf-8')
    tree = etree.HTML(html)
    img_url=tree.xpath('//img[@id="imgis"]/@src')[0]
    img_url =f'https:{img_url}'
    imgname=img_url.split('/')[-1]
    print(img_url,imgname)
    img=img_url,imgname
    return img




def down_img(img):
    # img_url="https://img-pre.ivsky.com/img/bizhi/pre/201606/21/one_piece-005.jpg"
    # imgname="one_piece-005.jpg"
    img_url=img[0]
    imgname=img[1]
    headers = {
        "user-agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36"}
    r = requests.get(url=img_url, headers=headers, timeout=6)
    with open(imgname,'wb') as f:
        f.write(r.content)
    print(f">> 下载 {imgname} 图片成功!")






def main():
    url="https://www.ivsky.com/bizhi/one_piece_t571/index_2.html"
    img_hrefs=get_imghrefs(url)
    for img_href in img_hrefs:
        img=get_img(img_href)
        down_img(img)
        time.sleep(1)






if __name__=='__main__':
    main()

第二版 类class 参考:

# one_piece 天堂图片网 图片采集
# https://www.ivsky.com/bizhi/one_piece_t571/index_2.html
# 20211105 by 微信:huguo00289
# -*- coding: UTF-8 -*-
import requests,time,os
from lxml import etree
import threading




class One():
    def __init__(self,url,pagenum):
        self.headers = {
            "user-agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36"}
        self.url=url
        self.pagenum=pagenum
        pathname=url.split('/')[-2]
        self.path=f'{pathname}/'
        os.makedirs(self.path,True)




    def get_img_herfs(self):
        for page in range(1,self.pagenum+1):
            if page==1:
                url=self.url
            else:
                url=f'{self.url}index_{page}.html'
            self.get_imghrefs(page,url)








    def get_imghrefs(self,page,url):
        print(f">> 正在爬取 第{page}页 链接:{url}")
        response=requests.get(url=url,headers=self.headers,timeout=6)
        html=response.content.decode('utf-8')
        tree=etree.HTML(html)
        hrefs=tree.xpath('//ul[@]/li/div[@]/a/@href')
        print(len(hrefs))
        print(hrefs)
        self.thread_get_imgs(page,hrefs)






    def thread_get_imgs(self,page,hrefs):
        threadings=[]
        for href in hrefs:
            href=f'https://www.ivsky.com{href}'
            t=threading.Thread(target=self.get_img,args=(href,page))
            threadings.append(t)
            t.start()


        for x in threadings:
            x.join()


        print("多线程下载图片完成")






    def get_img(self,url,page):
        response = requests.get(url=url, headers=self.headers, timeout=6)
        html = response.content.decode('utf-8')
        time.sleep(1)
        tree = etree.HTML(html)
        img_url=tree.xpath('//img[@id="imgis"]/@src')[0]
        img_url =f'https:{img_url}'
        img_name=img_url.split('/')[-1]
        img_name=f'{page}_{img_name}'
        print(img_url,img_name)
        self.down_img(img_url,img_name)






    def down_img(self,img_url,img_name):
        r = requests.get(url=img_url, headers=self.headers, timeout=6)
        with open(f'{self.path}{img_name}','wb') as f:
            f.write(r.content)
        print(f">> 下载 {img_name} 图片成功!")










def main():
    url="https://www.ivsky.com/bizhi/one_piece_t571/"
    pagenum=12
    spider=One(url,pagenum)
    spider.get_img_herfs()






if __name__=='__main__':
    main()

该网站没有反爬,适合新手学习参考,注意设置time.sleep,减轻服务器压力!

03

附经典语录

1.路飞——我们是伙伴啊!

2.索隆——假如连自己的船长都保护不了,还谈何野心!

3.娜美——在他的心碎掉之前,我想赶快见到他,成为他的力量!

4.乌索普——不在这里全力奋战的话,根本没有资格和他们搭同一艘船,也不可能和他们一样真心的开怀大笑!

5.山治——我从小就被教导不能踢女人,所以就算会没命,我也不能踢女人!

6.弗兰奇——我是已经死过一次的人了,为了让草帽他们活着从这里离开,再死一次我也无所谓!

7.罗宾——我想……我想要活下去!!把我也一起带到海上吧!

8.乔巴——以前我想变成人类,是因为想有同伴,现在我想变成能够帮到路飞的怪物!

9.布鲁克——从今天开始,我的性命交于路飞船长!决不拖大家后腿!粉身碎骨,肝脑涂地!

不妨加入到内容制造者的收割狂欢中..

往期推荐

python微博用户主页小姐姐图片内容采集爬虫

图片爬虫,手把手教你Python多线程下载获取图片

Python解析如何跳转真实下载链接下载文件

Python爬虫,B站视频下载源码脚本工具助手附exe

·················END·················

你好,我是二大爷,

革命老区外出进城务工人员,

互联网非早期非专业站长,

喜好python,写作,阅读,英语

不入流程序,自媒体,seo . . .

公众号不挣钱,交个网友。

读者交流群已建立,找到我备注 “交流”,即可获得加入我们~

听说点 “在看” 的都变得更好看呐~

关注关注二大爷呗~给你分享python,写作,阅读的内容噢~

扫一扫下方二维码即可关注我噢~

关注我的都变秃了

说错了,都变强了!

不信你试试

扫码关注最新动态

公众号ID:eryeji

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/445380.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号