Jsoup是一款Java语言开发的HTML解析器,用于解析HTML文档以及对HTML文档进行操作,处理等。它提供了类似于jQuery的DOM操作方法,以及用于HTML元素遍历、迭代、查询以及修改等操作的API,同时还支持CSS选择器和正则表达式的解析。
以下是Jsoup中最重要的几个核心类:
等。
这里我将从以下方面介绍Jsoup的用法:
在使用Jsoup前,需要将它添加到项目的依赖中。如果使用Maven,只需要在pom.xml文件中添加下面的代码即可:
org.jsoup
jsoup
1.14.3
解析HTML的第一步是将HTML文档加载到Jsoup的Document对象中,以便进行后续操作。可以通过以下方式实现:
String html = "Jsoup Example "
+ "Hello world!
";
Document doc = Jsoup.parse(html);
其中,Jsoup.parse(html)可以将字符串转换为Document对象,而html则是需要解析的HTML。
除了直接解析HTML字符串,Jsoup还支持从URL地址获取HTML内容并进行解析。可以使用以下代码:
String url = "http://www.example.com/";
Document doc = Jsoup.connect(url).get();
其中,Jsoup.connect(url).get()可以从指定的url地址获取HTML内容并解析成Document对象。
Jsoup支持类似于jQuery的CSS选择器语法,可以用非常简单的方式查找HTML元素。例如,查找所有的p标签,可以使用如下代码:
Elements paragraphs = doc.select("p");
select()方法会返回匹配选择器的元素的集合。
更进一步来说,选择器可以根据标签名、属性、样式等多种条件筛选元素。例如,以下代码会查找所有带有href属性的链接:
Elements links = doc.select("a[href]");
如果要查找指定class的元素,可以使用类似于CSS的“.classname”语法:
Elements elementsByClass = doc.select(".classname");
同样地,也支持按属性值进行查找:
Elements links = doc.select("a[href=\"#\"]");
这些选择器可以非常灵活地精准定位到需要的HTML元素。
在定位到所需的HTML元素后,可以使用Jsoup提供的方法获取元素的属性和内容。例如,以下代码可以获取a标签的href属性和显示的文本内容:
Element link = doc.select("a").first();
String href = link.attr("href");
String text = link.text();
attr()方法可以获取指定属性的值,而text()方法可以获取标签之间的文本内容。
Jsoup不仅可以解析HTML文档,还可以修改文档中的元素、属性等内容。可以使用以下代码:
Element link = doc.select("a").first();
link.attr("href", "http://www.newsite.com/");
link.text("New Site");
这些方法可以非常方便地修改HTML文档中的元素和属性。
有时候我们只需要解析HTML中的正文部分而不是全文,这种情况下可以使用Jsoup提供的方法实现。例如,以下代码可以提取HTML中的所有正文段落:
Document doc = Jsoup.parse(html);
Elements paragraphs = doc.select("p");
String text = paragraphs.text();
上面代码中,Jsoup首先解析HTML文档并查找所有的p标签,然后使用text()方法提取正文内容。
了解了基本用法后,我们可以进一步了解Jsoup的高级用法,例如:
可以使用以下代码提取出HTML文档中的所有图片:
Document doc = Jsoup.connect(url).get();
Elements images = doc.select("img[src~=(?i)\\.(png|jpe?g|gif)]");
这里的正则表达式可以过滤掉非图片类型的元素。
可以使用以下代码提取出HTML中的所有链接:
Document doc = Jsoup.connect(url).get();
Elements links = doc.select("a[href]");
然后遍历links集合,即可获取每个链接的href属性和文本内容。
可以通过以下方式指定Jsoup连接的User-Agent和超时时间:
String url = "http://www.example.com/";
Connection conn = Jsoup.connect(url);
conn.userAgent("Mozilla/5.0 (Windows NT 6.1; WOW64; rv:29.0) Gecko/20100101 Firefox/29.0");
conn.timeout(5000);
Document doc = conn.get();
其中userAgent()方法可以设置User-Agent,timeout()方法可以设置超时时间,单位是毫秒。
当解析包含中文字符的HTML文档时,可能会出现乱码等问题。可以通过以下方式解决:
Document doc = Jsoup.parse(html, "UTF-8");
String title = doc.title();
String text = doc.text();
这里的"UTF-8"指定了HTML文档的字符集,以解决编码问题。
可以使用以下代码提取表格中的数据:
Document doc = Jsoup.connect(url).get();
Elements tableRows = doc.select("table tr");
for (Element row : tableRows) {
Elements cells = row.select("td");
for (Element cell : cells) {
String cellText = cell.text();
}
}
这里先通过选择器查找所有的tr标签,然后对每个tr标签内的td标签进行遍历,获取单元格的内容。
有些HTML文档中包含特殊字符,例如©、™等符号,这些符号可能会导致解析错误。可以使用以下方式解决:
Document doc = Jsoup.parse(html);
doc.outputSettings().escapeMode(EscapeMode.base);
String text = doc.text();
这里的escapeMode()方法可以指定转义字符的模式,base模式表示只转义基本的字符,其他的字符不做转义。
有些网站可能会禁止爬虫访问,可以使用代理服务器连接到网站。可以使用以下代码设置代理:
String url = "http://www.example.com/";
Proxy proxy = new Proxy(Proxy.Type.HTTP, new InetSocketAddress("proxyhost", 8080));
Connection conn = Jsoup.connect(url).proxy(proxy);
Document doc = conn.get();
其中proxy()方法可以设置代理服务器的地址和端口号。
可以使用以下代码将相对路径转换为绝对路径:
String url = "http://www.example.com/";
Document doc = Jsoup.connect(url).get();
Elements links = doc.select("a[href]");
for (Element link : links) {
String absLink = link.attr("abs:href");
}
这里的abs()方法可以将相对路径转换为绝对路径,从而能够正确地访问链接。
除了HTML,Jsoup还能够处理XML文档。可以使用以下代码解析XML文档:
String xml = "- 1
- 2
- 3
";
Document doc = Jsoup.parse(xml, "", Parser.xmlParser());
Elements items = doc.select("item");
这里的xmlParser()方法将Jsoup的解析器设置为XML模式,然后就可以使用CSS选择器查找XML元素了。
有时候我们需要将HTML中的图片下载到本地使用。可以使用以下代码实现:
String imageUrl = "http://www.example.com/image.jpg";
Connection.Response resultImageResponse = Jsoup.connect(imageUrl).ignoreContentType(true).maxBodySize(0).execute();
byte[] imageBytes = resultImageResponse.bodyAsBytes();
这里的ignoreContentType()方法可以忽略ContentType的检查,maxBodySize()方法可以设置请求的最大字节数。然后可以将结果写入文件或者流中,以保存图片内容。