栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Java

Java爬虫实战抓取一个网站上的全部链接

Java 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

Java爬虫实战抓取一个网站上的全部链接

前言:写这篇文章之前,主要是我看了几篇类似的爬虫写法,有的是用的队列来写,感觉不是很直观,还有的只有一个请求然后进行页面解析,根本就没有自动爬起来这也叫爬虫?因此我结合自己的思路写了一下简单的爬虫。

一 算法简介

程序在思路上采用了广度优先算法,对未遍历过的链接逐次发起GET请求,然后对返回来的页面用正则表达式进行解析,取出其中未被发现的新链接,加入集合中,待下一次循环时遍历。

具体实现上使用了Map,键值对分别是链接和是否被遍历标志。程序中使用了两个Map集合,分别是:oldMap和newMap,初始的链接在oldMap中,然后对oldMap里面的标志为false的链接发起请求,解析页面,用正则取出标签下的链接,如果这个链接未在oldMap和newMap中,则说明这是一条新的链接,同时要是这条链接是我们需要获取的目标网站的链接的话,我们就将这条链接放入newMap中,一直解析下去,等这个页面解析完成,把oldMap中当前页面的那条链接的值设为true,表示已经遍历过了。

最后是当整个oldMap未遍历过的链接都遍历结束后,如果发现newMap不为空,则说明这一次循环有新的链接产生,因此将这些新的链接加入oldMap中,继续递归遍历,反之则说明这次循环没有产生新的链接,继续循环下去已经不能产生新链接了,因为任务结束,返回链接集合oldMap

二 程序实现

上面相关思路已经说得很清楚了,并且代码中关键地方有注释,因此这里就不多说了,代码如下:

package action;
import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStream;
import java.io.InputStreamReader;
import java.net.HttpURLConnection;
import java.net.MalformedURLException;
import java.net.URL;
import java.util.linkedHashMap;
import java.util.Map;
import java.util.regex.Matcher;
import java.util.regex.Pattern;
public class WebCrawlerDemo {
 public static void main(String[] args) {
    WebCrawlerDemo webCrawlerDemo = new WebCrawlerDemo();
    webCrawlerDemo.myPrint("http://www.zifangsky.cn");
  }
 
  public void myPrint(String baseUrl) {
    Map oldMap = new linkedHashMap(); // 存储链接-是否被遍历
   // 键值对
    String oldlinkHost = ""; //host
 
    Pattern p = Pattern.compile("(https?://)?[^/\s]*"); //比如:http://www.zifangsky.cn
    Matcher m = p.matcher(baseUrl);
    if (m.find()) {
      oldlinkHost = m.group();
    }
 
    oldMap.put(baseUrl, false);
    oldMap = crawllinks(oldlinkHost, oldMap);
    for (Map.Entry mapping : oldMap.entrySet()) {
      System.out.println("链接:" + mapping.getKey());
 
    }
 
  }
 
  
  private Map crawllinks(String oldlinkHost,
      Map oldMap) {
    Map newMap = new linkedHashMap();
    String oldlink = "";
 
    for (Map.Entry mapping : oldMap.entrySet()) {
      System.out.println("link:" + mapping.getKey() + "--------check:"
   + mapping.getValue());
      // 如果没有被遍历过
      if (!mapping.getValue()) {
 oldlink = mapping.getKey();
 // 发起GET请求
 try {
   URL url = new URL(oldlink);
   HttpURLConnection connection = (HttpURLConnection) url
.openConnection();
   connection.setRequestMethod("GET");
   connection.setConnectTimeout(2000);
   connection.setReadTimeout(2000);
 
   if (connection.getResponseCode() == 200) {
     InputStream inputStream = connection.getInputStream();
     BufferedReader reader = new BufferedReader(
  new InputStreamReader(inputStream, "UTF-8"));
     String line = "";
     Pattern pattern = Pattern
  .compile("(.+)");
     Matcher matcher = null;
     while ((line = reader.readLine()) != null) {
matcher = pattern.matcher(line);
if (matcher.find()) {
  String newlink = matcher.group(1).trim(); // 链接
  // String title = matcher.group(3).trim(); //标题
  // 判断获取到的链接是否以http开头
  if (!newlink.startsWith("http")) {
    if (newlink.startsWith("/"))
      newlink = oldlinkHost + newlink;
    else
      newlink = oldlinkHost + "/" + newlink;
  }
  //去除链接末尾的 /
  if(newlink.endsWith("/"))
    newlink = newlink.substring(0, newlink.length() - 1);
  //去重,并且丢弃其他网站的链接
  if (!oldMap.containsKey(newlink)
      && !newMap.containsKey(newlink)
      && newlink.startsWith(oldlinkHost)) {
    // System.out.println("temp2: " + newlink);
    newMap.put(newlink, false);
  }
}
     }
   }
 } catch (MalformedURLException e) {
   e.printStackTrace();
 } catch (IOException e) {
   e.printStackTrace();
 }
 
 try {
   Thread.sleep(1000);
 } catch (InterruptedException e) {
   e.printStackTrace();
 }
 oldMap.replace(oldlink, false, true);
      }
    }
    //有新链接,继续遍历
    if (!newMap.isEmpty()) {
      oldMap.putAll(newMap);
      oldMap.putAll(crawllinks(oldlinkHost, oldMap)); //由于Map的特性,不会导致出现重复的键值对
    }
    return oldMap;
  }
}

三 最后的测试效果

PS:其实用递归这种方式不是太好,因为要是网站页面比较多的话,程序运行时间长了对内存的消耗会非常大

感谢阅读,希望能帮助到大家,谢谢大家对本站的支持!

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/148908.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号