栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

Python爬虫,将爬取到的信息转换为DataFrame形式,并以csv格式存储(以药监总局数据为例)

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

Python爬虫,将爬取到的信息转换为DataFrame形式,并以csv格式存储(以药监总局数据为例)

#动态加载数据,并将数据转换为Dataframe格式,并将其转换为csv格式
import json
import requests
import pandas as pd


def getId():#获取动态数据的id信息
    idurl = r'http://scxk.nmpa.gov.cn:81/xk/itownet/portalAction.do?method=getXkzsList'
    headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.61 Safari/537.36'}
    idlist = []
    for page in range(1,20):#获取数据的页数
        page =str(page)#将页数转换为字符串格式
        data = {#参数
            'on': 'true',
            'page': page,
            'pageSize': '15',
            'productName':'',
            'conditionType': '1',
            'applyname':'',
            'applysn':''
        }
        responce = requests.post(url=idurl,headers=headers,data=data).json()
        print(responce)
        print("---------------------------------------")
        for dic in responce['list']:
            idlist.append(dic['ID'])
    return idlist

def getInformation(idlist):#获取动态数据的详细信息
    url = 'http://scxk.nmpa.gov.cn:81/xk/itownet/portalAction.do?method=getXkzsById'
    headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.61 Safari/537.36'}
    inforlist = []
    for id in idlist:
        data = {
            'id':id
        }
        responce = requests.post(url=url,data=data,headers=headers).json()
        inforlist.append(responce)
    return inforlist


def getDataframe(idlist):#持久化存储
    datall = pd.Dataframe()
    for item in idlist:
        df = pd.Dataframe.from_dict(item,orient='index').T
        datall = datall.append(df)
    datall.to_csv('data.csv')


if __name__ == '__main__':
    id = getId()
    #print(id)
    detailinformation = getInformation(id)
    #print(detailinformation)
    getDataframe(detailinformation)
    print("over!!!!")


爬取数据后的具体结果如上图所示。

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/299819.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号