JSOUP 爬虫

JSOUP 爬虫作者QQ:1095737364QQ群:123300273欢迎加入!1.mavne依赖:<!html解析:jsoupHTMLparserlibrary@http://jsoup.org/><dependency><groupId&gt

大家好,欢迎来到IT知识分享网。

作者QQ:1095737364    QQ群:123300273     欢迎加入!

 1.mavne 依赖:

<!--html 解析 : jsoup HTML parser library @ http://jsoup.org/-->
<dependency>
    <groupId>org.jsoup</groupId>
    <artifactId>jsoup</artifactId>
    <version>1.10.2</version>
</dependency>

 

2.JSONPUtils工具:

package com.hiione.common.util;
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;
 
import java.io.IOException;
import java.util.Iterator;
 
public class JsoupUtils {
 
  public static String jsoupElement(String content){
    Document doc = Jsoup.parse(content);
    Element body = doc.body();
    Elements aHref=body.select("a");
    Elements jsScript = body.select("script");
    Elements form = body.select("form");
    Elements link = body.select("link");
    Elements ifrom = body.select("iframe ");
    Elements http = body.select("http");
    if(jsScript.size()!=0 ||aHref.size()!=0||form.size()!=0||link.size()!=0||ifrom.size()!=0||http.size()!=0){
      return "0";
    }
    return "";
  }
  public static String jsoupElementByURL(String content){
    String url = "http://as.meituan.com/meishi/all";
    Document doc = null;
    try {
      doc = Jsoup.connect(url).get();
    } catch (IOException e1) {
      e1.printStackTrace();
    }
    Element body = doc.body();
    Elements aHref=body.select("a");
    Elements es=body.select("a");
    for (Iterator it = es.iterator(); it.hasNext();) {
      Element e = (Element) it.next();
      System.out.println(e.text()+" "+e.attr("href"));
    }
    Elements jsScript = body.select("script");
    Elements form = body.select("form");
    Elements link = body.select("link");
    Elements ifrom = body.select("iframe ");
    Elements http = body.select("http");
    if(jsScript.size()!=0 ||aHref.size()!=0||form.size()!=0||link.size()!=0||ifrom.size()!=0||http.size()!=0){
      return "0";
    }
    return "";
  }
}

 

3.jsoup 简介

 
Java 程序在解析 HTML 文档时,相信大家都接触过 htmlparser 这个开源项目,我曾经在 IBM DW 上发表过两篇关于 htmlparser 的文章,分别是:从HTML中攫取你所需的信息 和扩展 HTMLParser 对自定义标签的处理能力。但现在我已经不再使用 htmlparser 了,原因是 htmlparser 很少更新,但最重要的是有了 jsoup 。
jsoup 是一款 Java 的HTML 解析器,可直接解析某个URL地址、HTML文本内容。它提供了一套非常省力的API,可通过DOM,CSS以及类似于jQuery的操作方法来取出和操作数据。
jsoup的主要功能如下:
   1. 从一个URL,文件或字符串中解析HTML;
   2. 使用DOM或CSS选择器来查找、取出数据;
   3. 可操作HTML元素、属性、文本;
jsoup是基于MIT协议发布的,可放心使用于商业项目。
jsoup 的主要类层次结构如下图所示:
 
JSOUP 爬虫

 

 

接下来我们专门针对几种常见的应用场景举例说明 jsoup 是如何优雅的进行 HTML 文档处理的。
 

4.文档输入

 
jsoup 可以从包括字符串、URL地址以及本地文件来加载 HTML 文档,并生成 Document 对象实例。
 
下面是相关代码:
// 直接从字符串中输入 HTML 文档 
String html = "<html><head><title>JSONP</title></head>" + 
"<body><p>这里是 jsoup 项目的相关文章</p></body></html>"; 
Document doc = Jsoup.parse(html); 
// 从URL直接加载 HTML 文档 
Document doc = Jsoup.connect("http://www.baidu.net/").get(); 
String title = doc.title(); 
Document doc = Jsoup.connect("http://www.baidu.net/")
.data("query", "Java") //请求参数 
.userAgent("I’m jsoup") //设置User-Agent 
.cookie("auth", "token") //设置cookie 
.timeout(3000) //设置连接超时时间 
.post(); //使用POST方法访问URL 
// 从文件中加载 HTML 文档 
File input = new File("D:/test.html"); 
Document doc = Jsoup.parse(input,"UTF-8","http://www.oschina.net/");

 

请大家注意最后一种 HTML 文档输入方式中的 parse 的第三个参数,为什么需要在这里指定一个网址呢(虽然可以不指定,如第一种方法)?因为 HTML 文档中会有很多例如链接、图片以及所引用的外部脚本、css文件等,而第三个名为 baseURL 的参数的意思就是当 HTML 文档使用相对路径方式引用外部文件时,jsoup 会自动为这些 URL 加上一个前缀,也就是这个 baseURL。 例如 :
  <a href=/project>开源软件</a>
  会被转换成
  <a href=http://www.oschina.net/project>开源软件</a>。 
 

5.解析并提取 HTML 元素 

 
这部分涉及一个 HTML 解析器最基本的功能,但 jsoup 使用一种有别于其他开源项目的方式——选择器,我们将在最后一部分详细介绍 jsoup 选择器,本节中你将看到 jsoup 是如何用最简单的代码实现。 
不过 jsoup 也提供了传统的 DOM 方式的元素解析,看看下面的代码:
File input = new File("D:/test.html");
Document doc = Jsoup.parse(input, "UTF-8", "http://www.baidu.net/");
Element content = doc.getElementById("content");
Elements links = content.getElementsByTag("a");
for (Element link : links) {
    String linkHref = link.attr("href");
    String linkText = link.text();
}

 

你可能会觉得 jsoup 的方法似曾相识,没错,像 getElementById 和 getElementsByTag 方法跟 JavaScript 的方法名称是一样的,功能也完全一致。你可以根据节点名称或者是 HTML 元素的 id 来获取对应的元素或者元素列表。 
与 htmlparser 项目不同的是,jsoup 并没有为 HTML 元素定义一个对应的类,一般一个 HTML 元素的组成部分包括:节点名、属性和文本,jsoup 提供简单的方法供你自己检索这些数据,这也是 jsoup 保持瘦身的原因。 
而在元素检索方面,jsoup 的选择器简直无所不能,
File input = new File("D:\test.html");
Document doc = Jsoup.parse(input,"UTF-8","http://www.baidu.net/");
Elements links = doc.select("a[href]"); // 具有 href 属性的链接
Elements pngs = doc.select("img[src$=.png]");//所有引用png图片的元素
Element masthead = doc.select("div.masthead").first();
// 找出定义了 class="masthead" 的元素
Elements resultLinks = doc.select("h3.r > a"); // direct a after h3

 

这是 jsoup 真正让我折服的地方,jsoup 使用跟 jQuery 一模一样的选择器对元素进行检索,以上的检索方法如果换成是其他的 HTML 解释器,至少都需要很多行代码,而 jsoup 只需要一行代码即可完成。
jsoup 的选择器还支持表达式功能,我们将在最后一节介绍这个超强的选择器。

6.修改数据

在解析文档的同时,我们可能会需要对文档中的某些元素进行修改,例如我们可以为文档中的所有图片增加可点击链接、修改链接地址或者是修改文本等。
下面是一些简单的例子:
doc.select("div.comments a").attr("rel", "nofollow");
//为所有链接增加 rel=nofollow 属性
doc.select("div.comments a").addClass("mylinkclass");
//为所有链接增加 class="mylinkclass" 属性
doc.select("img").removeAttr("onclick"); //删除所有图片的onclick属性
doc.select("input[type=text]").val(""); //清空所有文本输入框中的文本

 

道理很简单,你只需要利用 jsoup 的选择器找出元素,然后就可以通过以上的方法来进行修改,除了无法修改标签名外(可以删除后再插入新的元素),包括元素的属性和文本都可以修改。
 
修改完直接调用 Element(s) 的 html() 方法就可以获取修改完的 HTML 文档。

7.HTML 文档清理

 
jsoup 在提供强大的 API 同时,人性化方面也做得非常好。在做网站的时候,经常会提供用户评论的功能。有些用户比较淘气,会搞一些脚本到评论内容中,而这些脚本可能会破坏整个页面的行为,更严重的是获取一些机要信息,例如 XSS 跨站点攻击之类的。
jsoup 对这方面的支持非常强大,使用非常简单。看看下面这段代码:
String unsafe = "<p><a href='http://www.oschina.net/' onclick='stealCookies()'>JSONP</a></p>";
String safe = Jsoup.clean(unsafe, Whitelist.basic());
// 输出:
// <p><a href="http://www.baidu.net/" rel="nofollow">JSONP</a></p>

 

jsoup 使用一个 Whitelist 类用来对 HTML 文档进行过滤,该类提供几个常用方法:
 
 
JSOUP 爬虫

如果这五个过滤器都无法满足你的要求呢,例如你允许用户插入 flash 动画,没关系,Whitelist 提供扩展功能,例如 whitelist.addTags(“embed”,”object”,”param”,”span”,”div”); 也可调用 addAttributes 为某些元素增加属性。

8.jsoup 的过人之处——选择器

 
前面我们已经简单的介绍了 jsoup 是如何使用选择器来对元素进行检索的。本节我们把重点放在选择器本身强大的语法上。下表是 jsoup 选择器的所有语法详细列表。
 
基本用法
 
JSOUP 爬虫

以上是最基本的选择器语法,这些语法也可以组合起来使用,下面是 jsoup 支持的组合用法:
 
JSOUP 爬虫

除了一些基本的语法以及这些语法进行组合外,jsoup 还支持使用表达式进行元素过滤选择。下面是 jsoup 支持的所有表达式一览表:
 
JSOUP 爬虫

总结
 
jsoup 的基本功能到这里就介绍完毕,但由于 jsoup 良好的可扩展性 API 设计,你可以通过选择器的定义来开发出非常强大的 HTML 解析功能。再加上 jsoup 项目本身的开发也非常活跃,因此如果你正在使用 Java ,需要对 HTML 进行处理,应该试试。
 
 
 
 
 
 
 
 
 
 
 

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/33259.html

(0)

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注微信