栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

Python爬虫入门级

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

Python爬虫入门级

Python爬虫入门级(六)

使用bs4解析页面源代码数据

爬取北京新发地(旧网址数据)

网页解析的第二种方式HTML解析

1、安装bs4

pip install bs4
正式代码

1、拿到页面源代码
2、使用bs4解析,拿到数据

####网页解析的第二种方式HTML解析
### 1、安装bs4
#正是代码
# 1、拿到页面源代码
# 2、使用bs4解析,拿到数据
import requests,pandas as pd
from bs4 import BeautifulSoup
df = pd.Dataframe(columns=('name', 'min_prc', 'avg_prc', 'max_prc', 'index', 'code', 'time'))
url = 'https://www.construdip.com/marketanalysis/0/list/1.shtml'
resp = requests.get(url)

#解析数据
# 1、将数据交给bs4
page = BeautifulSoup(resp.text,"html.parser")   ## "html.parser" 指定输入内容,防止警告
# 2、从bs中查找数据
#   find(标签,属性=值)  find_all(标签,属性=值)
# page.find("table",class_="hq_table")  ## class是python里的关键字,使用class_
table = page.find("table",attrs={"class" : "hq_table"})  ## 更好的解决方案
trs = table.find_all("tr")[1:]  # [1:] 从第一个开始切分。跳过第0个
for tr in trs:
    tds = tr.find_all("td")
    name = tds[0].text
    min_prc = tds[1].text
    avg_prc = tds[2].text
    max_prc = tds[3].text
    index = tds[4].text
    code = tds[5].text
    time = tds[6].text
    print(name+"t"+min_prc+"t"+avg_prc+"t"+max_prc+"t"+index+"t"+code+"t"+time)
    df = df.append([{'name':name, 'min_prc':min_prc, 'avg_prc':avg_prc, 'max_prc':max_prc, 'index':index, 'code':code, 'time':time}], ignore_index=True)
df.to_csv("C:\Users\Desktop\tmp\beijing_xtd_price.csv", encoding='ANSI')


##关闭访问
resq.close()

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/580656.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号