栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

python爬取东方财富网资金流向数据并存入MySQL中

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

python爬取东方财富网资金流向数据并存入MySQL中

今天我们来试着用python爬取东方财富网资金流向的表格数据。

第一步:程序及应用的准备

首先我们需要安装selenium库,使用命令pip install selenium;然后我们需要下载对应的chromedriver,安装网址:http://chromedriver.storage.googleapis.com/index.html,安装教程:Windows下载及安装chromedriver.exe_mry6的博客-CSDN博客_chromedriver.exe。我们的chromedriver.exe应该是在C:Program FilesGoogleChromeApplication中(即让它跟chrome.exe在同一个文件下)。

下载完成后,我们还需要做两件事:1.配置环境变量;

 2.将chromedriver.exe拖到python文件夹里,因为我用的是anaconda,所以我直接是放入D:Anaconda中的。

 此时,我们所需的应用已经准备好了。

第二步:进入我们要爬取的网页(东旭蓝天(000040)资金流向 _ 数据中心 _ 东方财富网),按F12进入调试模式. 可定义文档中的分区或节,可以对同一个 元素应用 class 或 id 属性,但是更常见的情况是只应用其中一种。这两者的主要差异是,class 用于元素组(类似的元素,或者可以理解为某一类元素),而 id 用于标识单独的唯一的元素。

 当我们依次点击右侧div时,我们可以发现,我们想要爬取的数据对应的代码为右侧蓝色部分,而下方的

表示整个表格,表示我们的表头即文字部分,表示表头下方的数据部分。

 

 我们可以发现,

跟的每一行都是以开始,以结束的;在中,每一个格子是以中,每一个格子是以
开始,以结束的;在
开始,以结束的。至此,我们对要爬取的数据的构成有了一个大概的认知。

第三步:编写程序

etree.HTML()可以用来解析字符串格式的HTML文档对象,将传进去的字符串转变成_Element对象。作为_Element对象,可以方便的使用getparent()、remove()、xpath()等方法。

options常用属性及方法为:

  • binary_location='':指定Chrome浏览器路径
  • debuger_address=':指定调试路径
  • headless: 无界面模式
  • add_argument():添加启动参数
  • add_extension:添加本地插件
  • add_experimental_option:添加实验选项
  • to_capablilities:将options转为标准的capablitiies格式

selenium的page_source方法可以获取到页面源码,提取出我们需要的信息。

div[@表示我们通过class属性的值定位到我们要爬取的表格div,‘/table’则是表示的下一级

目录。

XPath 使用路径表达式在 XML 文档中选取节点。节点是通过沿着路径或者 step 来选取的。 下面列出了最有用的路径表达式:

表达式描述
nodename选取此节点的所有子节点。
/从根节点选取(取子节点)。
//从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置(取子孙节点)。
.选取当前节点。
..选取当前节点的父节点。
@选取属性。
a:  打开一个文件用于追加。如果该文件已存在,文件指针将会放在文件的结尾。也就是说,新的内容将会被写入到已有内容之后。如果该文件不存在,创建新文件进行写入。
from selenium import webdriver  #导入模块,selenium导入浏览器驱动,用get方法打开浏览器
import time
import re
import csv  #存储数据
from lxml import etree #数据的解析

option = webdriver.ChromeOptions()   #网址获取
option.add_argument('headless')  #无界面启动,即设置浏览器静默
#等价于 options.headless=True
driver = webdriver.Chrome(options=option)  
#等价于 driver = webdriver.Chrome(desired_capabilities=options.to_capablities())
driver.get('https://data.eastmoney.com/zjlx/000040.html') #打开浏览器
time.sleep(2) #推迟调用线程的运行,可表示进程挂起的时间,这里让他推迟执行2秒

source = driver.page_source #获取页面源码
mytree = etree.HTML(source) #解析网页内容
tables = mytree.xpath('//div[@]/table') #定位表格
for i in range(len(tables)): #循环表格
    onetable = []
    trs = tables[i].xpath('.//tr') #取出所有tr标签
    for tr in trs:
        ui = []
        for td in tr:
            texts = td.xpath(".//text()") #取出所有td标签下的文本
            mm = []
            for text in texts:
                mm.append(text.strip("")) #去掉所有空格、换行符
            ui.append(','.join(mm))
        onetable.append(ui) #整张表格

with open('data.csv', 'a', newline='') as file: #将数据写入文件
    csv_file = csv.writer(file)
    for i in onetable:
        csv_file.writerow(i) #按行写入

time.sleep(2)
driver.close() #关闭当前窗口

这样我们就可以把一个股票的历史资金流向的数据放在一个csv文件里了,接下去考虑到存储问题,我们可以尝试连接MySQL,将数据放入MySQL中。

转载请注明:文章转载自 www.mshxw.com
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号