初步使用爬虫-----跳转指定页面(这里使用eclipse运行爬虫)向网站发起请求,获取资源后分析并提取有用数据的程序
可以把互联网比喻成一张很大的蜘蛛网,而爬虫就是蜘蛛网上的一只蜘蛛,数据比喻成粘在蜘蛛网上的昆虫,爬虫这只蜘蛛就是专门获取数据的
第一步:需要获取到浏览器驱动
注:获取的驱动版本选择对应的浏览器版本,如果没有则选择版本相近的
谷歌驱动http://chromedriver.storage.googleapis.com/index.html第二步:将驱动存放到本地地址
注:存放的文件路径不能有中文,以防出错
第三步:打开eclipse新建一个Maven项目
Maven项目所需jar依赖
org.seleniumhq.selenium selenium-java3.141.0 mysql mysql-connector-java5.1.47 第四步:新建一个类
package com.sg.python; import org.openqa.selenium.WebDriver; import org.openqa.selenium.chrome.ChromeDriver; public class Demo1 { public static void main(String[] args) { // 设置驱动 以下的"F:\chromedriver.exe"是自己驱动的存放位置 System.setProperty("webdriver.chrome.driver", "F:\chromedriver.exe"); // 创建游览器驱动 WebDriver driver=new ChromeDriver(); // 打开指定网址---以百度网址举例 driver.get("http://www.baidu.com/"); } }结果展示:
过几天再更新!!!



