栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Java

java爬虫模拟登陆的实例详解

Java 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

java爬虫模拟登陆的实例详解

使用jsoup工具可以解析某个URL地址、HTML文本内容,是java爬虫很好的优势,也是我们在网络爬虫不可缺少的工具。本文小编带领大家使用jsoup 实现java爬虫模拟登陆,通过省力的API,很好的实现java爬虫模拟登陆。

一、使用工具:Jsoup

jsoup 是一款Java 的HTML解析器,可直接解析某个URL地址、HTML文本内容。它提供了一套非常省力的API,可通过DOM,CSS以及类似于jQuery的操作方法来取出和操作数据。

二、实现java爬虫模拟登陆

1、确定想要爬取的url

import java.io.BufferedWriter;

import java.io.FileOutputStream;

import java.io.IOException;

import java.io.OutputStreamWriter;

import java.util.Map.Entry;

import java.util.Set;

import org.jsoup.Connection;

import org.jsoup.Jsoup;

import org.jsoup.nodes.document;
import org.jsoup.nodes.Element;
public class SplitTable {
  public static void main(String[] args) throws IOException {
    //想要爬取的url
    String url = "http://jwcnew.nefu.edu.cn/dblydx_jsxsd/xskb/xskb_list.do?
Ves632DSdyV=NEW_XSD_PYGL";
    String username = "";
    String password = "";
    String sessionId = getSessionInfo(username,password);
    spiderWebSite(sessionId,url);
  }

2、获取sessionId

private static String getSessionInfo(String username,String password)
throws IOException{

3、登录网站,返回sessionId信息

Connection.Response res = Jsoup.connect(http://jwcnew.nefu.edu.cn/dblydx_jsxsd/xk/LoginToXk)

4、获得sessionId

 String sessionId = res.cookie("JSESSIONID");
    System.out.println(sessionId);
    return sessionId;
  }

5、爬取内容

private static void spiderWebSite(String sessionId,String url) throws IOException{
    //爬取
    document doc = Jsoup.connect(url).cookie("JSESSIONID", sessionId).timeout(10000).get();
    Element table = doc.getElementById("kbtable");
    //System.out.println(table);
    BufferedWriter bw = new BufferedWriter
(new OutputStreamWriter(new FileOutputStream("F:/table.html")));
    bw.write(new String(table.toString().getBytes()));
    bw.flush();
    bw.close();
  }
}

实例代码扩展:

import java.io.IOException;
import java.util.HashMap;
import java.util.List;
import java.util.Map;
import org.jsoup.Connection;
import org.jsoup.Jsoup;
import org.jsoup.Connection.Method;
import org.jsoup.Connection.Response;
import org.jsoup.nodes.document;
import org.jsoup.nodes.Element;

public class LoginDemo {
  public static void main(String[] args) throws Exception {
    LoginDemo loginDemo = new LoginDemo();
    loginDemo.login("16xxx20xxx", "16xxx20xxx");// 用户名,和密码
  }
  
  public void login(String userName, String pwd) throws Exception {
    // 第一次请求
    Connection con = Jsoup
 .connect("http://lib???.?????????.aspx");// 获取连接
    con.header("User-Agent",
 "Mozilla/5.0 (Windows NT 6.1; WOW64; rv:29.0) Gecko/20100101 Firefox/29.0");// 配置模拟浏览器
    Response rs = con.execute();// 获取响应
    document d1 = Jsoup.parse(rs.body());// 转换为Dom树
    List et = d1.select("#form1");// 获取form表单,可以通过查看页面源码代码得知
    // 获取,cooking和表单属性,下面map存放post时的数据
    Map datas = new HashMap<>();
    for (Element e : et.get(0).getAllElements()) {
      //System.out.println(e.attr("name")+"----Littlen");
      if (e.attr("name").equals("tbUserName")) {
 e.attr("value", userName);// 设置用户名
      }

      if (e.attr("name").equals("tbPassWord")) {
 e.attr("value", pwd); // 设置用户密码
      }
      if (e.attr("name").length() > 0) {// 排除空值表单属性
 datas.put(e.attr("name"), e.attr("value"));
      }
    }


    
    Connection con2 = Jsoup
 .connect("http://lib???.?????????.aspx");
    con2.header("User-Agent",
 "Mozilla/5.0 (Windows NT 6.1; WOW64; rv:29.0) Gecko/20100101 Firefox/29.0");
    // 设置cookie和post上面的map数据
    Response login = con2.ignoreContentType(true).method(Method.POST)
 .data(datas).cookies(rs.cookies()).execute();

    // 登陆成功后的cookie信息,可以保存到本地,以后登陆时,只需一次登陆即可
    Map map = login.cookies();
    //下面输出的是cookie 的内容
    for (String s : map.keySet()) {
      System.out.println(s + "=====-----" + map.get(s));
    }

    System.out.println(login.body());
    
    Connection con_record = Jsoup
 .connect("http://lib???.?????????.aspx");// 获取连接
    con_record.header("User-Agent",
 "Mozilla/5.0 (Windows NT 6.1; WOW64; rv:29.0) Gecko/20100101 Firefox/29.0");// 配置模拟浏览器
    con_record.cookies(datas);

    Response record = con_record.ignoreContentType(true)
 .method(Method.GET)
 .cookies(rs.cookies())
 .execute();
    System.out.println(record.body());
  }
}

到此这篇关于java爬虫模拟登陆的实例详解的文章就介绍到这了,更多相关java爬虫实战之模拟登陆内容请搜索考高分网以前的文章或继续浏览下面的相关文章希望大家以后多多支持考高分网!

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/129431.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号