java爬——jsoup使用教程
Posted 玛丽莲茼蒿
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了java爬——jsoup使用教程相关的知识,希望对你有一定的参考价值。
1.jsoup入门
要实现多样化的爬取,还得从jsoup本身学起呀!
(1)定义:JSoup是一个用于处理html的Java库,它提供了一个非常方便类似于使用DOM,CSS和jQuery的方法的API来提取和操作数据。
(2)主要作用:
- DOM:将HTML解析为与现代浏览器相同的DOM,和js中的document对象一样,用getElementById等方法获取元素
- CSS:利用CSS选择器选择src等属性
(3)API学习
学习jsoup就是学习这几个类的方法。
1. org.jsoup.Jsoup类
主要就是记parse这个函数就行了
Document document = Jsoup.parse(new URL(url), 30000); //url 最长解析时间
2. org.jsoup.nodes.Document类
2.1 DOM
document对象和javascript里的document是一个东西,js里能用的方法这里都能调用。
Element element = document.getElementById("J_goodsList");
2.2 CSS选择器
下面例子中从HTML提取带a[href] 、src、 link[href]属性的元素,再用这些元素的attr函数提取更精确额内容。
Document doc = Jsoup.connect(url).get();
Elements links = doc.select("a[href]");
Elements media = doc.select("[src]");
Elements imports = doc.select("link[href]");
print("\\nLinks: (%d)", links.size());
for (Element link : links)
print(" * a: <%s> (%s)", link.attr("abs:href"), trim(link.text(), 35));
print("\\nMedia: (%d)", media.size());
for (Element src : media)
if (src.tagName().equals("img"))
print(" * %s: <%s> %sx%s (%s)",
src.tagName(), src.attr("abs:src"), src.attr("width"), src.attr("height"),
trim(src.attr("alt"), 20));
else
print(" * %s: <%s>", src.tagName(), src.attr("abs:src"));
print("\\nImports: (%d)", imports.size());
for (Element link : imports)
print(" * %s <%s> (%s)", link.tagName(),link.attr("abs:href"), link.attr("rel"));
示例输出:
Imports: (2)
* link <http://ycombinator.com/news.css> (stylesheet)
* link <http://ycombinator.com/favicon.ico> (shortcut icon)
Media: (38)
* img: <http://ycombinator.com/images/y18.gif> 18x18 ()
* img: <http://ycombinator.com/images/s.gif> 10x1 ()
* img: <http://ycombinator.com/images/grayarrow.gif> x ()
Links: (141)
* a: <http://ycombinator.com> ()
* a: <http://news.ycombinator.com/news> (Hacker News)
* a: <http://news.ycombinator.com/newest> (new)
3. org.jsoup.nodes.Element类
2. 创建项目
因为要用到解析网页的jsoup依赖,所以新建一个maven项目。
添加jsoup依赖
在侧边栏检查一下,发现添加成功
3. 京东完整代码(简单版)
京东抓取一页商品的代码
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;
import java.io.IOException;
import java.net.MalformedURLException;
import java.net.URL;
public class HtmlParseUtil
public static void main(String[] args) throws IOException
//被爬取页面的url https://search.jd.com/Search?keyword=Java
String url = "https://search.jd.com/Search?keyword=女衬衫";
// jsoup解析网页,返回浏览器document对象,所有在js可以使用的方法这里都能用!
Document document = Jsoup.parse(new URL(url), 30000); //url 最长解析时间
Element element = document.getElementById("J_goodsList");
// 获取J_goodsList下的所有的li元素
Elements elements = element.getElementsByTag("li");
int count=0;
for (Element el : elements)
// 找到<img>标签; 找到<li>标签下的第1个<img>标签; 获取其src属性
//String img = el.getElementsByTag("img").eq(0).attr("src");
// 找到"p-price"类;找到<li>标签下的第1个"p-price"; 将其内容转为文字
String price = el.getElementsByClass("p-price").eq(0).text();
// 同上
String name = el.getElementsByClass("p-name").eq(0).text();
//System.out.println(img);
System.out.println(price);
System.out.println(name);
count++;
System.out.println(count);
只需要将url最后的“女衬衫” 改为你想搜索的商品就行了。
结果如下图:
但是只能实现第一页的爬取。
4. 京东爬取多页版
网站显示内容基本上都是通过分页来显示,我们用jsoup简单爬取页面仅能获取本页的内容,对于其他页面的内容该如何爬取?其实很简单,就是通过检查下一页的链接地址,基本上下一页的超链接地址都是有规律的,基本上都是*****/1或者*****/2等等,所以我们可以按照这个规律,循环访问页面,抓取信息即可;当然,通过选择器直接将下一页的url获取出来也可以,不过我觉得直接分析还是比较简单。
因为选择器不太熟,我选择采用观察法。
当我翻到第二页的时候,发现URL后面多了一大串,似乎没有规律可循(崩溃)。
让人头大的是pvid=后面的一串是随机的。下一次搜索就变了
- 但是我发现去掉pvid这一串以后,也能访问这个页面。
- 并且多次点击进入不同页数以后,发现page是奇数没有偶数,第1页对应page=1;第2页对应page=3;第3页对应page=5.
- s=是货物累计多少个了。第2页的s比第1页多55个,第3页比第2页多55个,第4页比第3页多55个。。。
- click一直等于零
- 最重要的发现是,只需要前面的keyword=java加上后面的page=就可以访问每一页,其他都是无用的(不知道“无用”这个理解对不对,没怎么接触过Javaweb)。
比如说我只输入上面的URL,就可以访问java商品的第6页
那这样的话,我们给上面的简单版代码套一个循环就可以访问多页了。
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;
import java.io.IOException;
import java.net.MalformedURLException;
import java.net.URL;
public class HtmlParseUtil
public static void main(String[] args) throws IOException
int count=0; //统计商品个数
//被爬取页面的url https://search.jd.com/Search?keyword=Java
String url = "https://search.jd.com/Search?keyword=java";
// jsoup解析网页,返回浏览器document对象,所有在js可以使用的方法这里都能用!
for(int i=1;i<=5;i++)
String temp = 2*i-1+""; //int 转 string
url = url+"&page="+temp;
Document document = Jsoup.parse(new URL(url), 30000); //url 最长解析时间
Element element = document.getElementById("J_goodsList");
// 获取J_goodsList下的所有的li元素
Elements elements = element.getElementsByTag("li");
for (Element el : elements)
// 找到<img>标签; 找到<li>标签下的第1个<img>标签; 获取其src属性
//String img = el.getElementsByTag("img").eq(0).attr("src");
// 找到"p-price"类;找到<li>标签下的第1个"p-price"; 将其内容转为文字
String price = el.getElementsByClass("p-price").eq(0).text();
// 同上
String name = el.getElementsByClass("p-name").eq(0).text();
//System.out.println(img);
System.out.println(price);
System.out.println(name);
count++;
System.out.println(count);
5. 淘宝进阶版
1. 找到所有商品对应的<div id="mainsrp-itemlist">
2.找到每一个商品对应的标签<div class="">
这里发现前三个商品的class和后面的都不一样,仔细一看,前三个是给淘宝上供的广告商品。那就不爬前三个了吧
3.
遇到淘宝的反扒
以上是关于java爬——jsoup使用教程的主要内容,如果未能解决你的问题,请参考以下文章