最近做java网页爬虫用jsoup 写了一个方法main执行正常 放在action里调用这个方法就不正常求解

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了最近做java网页爬虫用jsoup 写了一个方法main执行正常 放在action里调用这个方法就不正常求解相关的知识,希望对你有一定的参考价值。

代码如下
String url = "http://www.sogou.com/web?sut=1374&lkt=1%2C1386588673481%2C1386588673481&ie=utf8&sst0=1386588674552&p=40040100&dp=1&w=01019900&dr=1&_asf=www.sogou.com&_ast=1386589056&query=java网页爬虫&page=1";
String ua = "Mozilla/5.0 (Windows NT 6.1; rv:25.0) Gecko/20100101 Firefox/25.0";
try
Document doc = Jsoup.connect(url).header("User-Agent", ua).get();
System.out.println(doc.html());
catch (IOException e)
e.printStackTrace();


main里执行爬的网页 和把url放浏览器里得到的网页一致
action里执行 貌似爬的html只是sogou 首页

求大神 大神

参考技术A import java.io.BufferedWriter;
import java.io.FileOutputStream;
import java.io.IOException;
import java.io.OutputStreamWriter;
import java.net.SocketTimeoutException;
import java.net.UnknownHostException;

import org.jsoup.Connection;
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;

public class JsoupTest

static String url = "http://www.sogou.com/web?sut=1374&lkt=1%2C1386588673481%2C1386588673481&ie=utf8&sst0=1386588674552&p=40040100&dp=1&w=01019900&dr=1&_asf=www.sogou.com&_ast=1386589056&query=java网页爬虫&page=1";

public static void main(String[] args)
Document doc = readUrlFist(url);
write(doc);

public static void write(Document doc)
try

FileOutputStream fos=new FileOutputStream("C:\\Documents and Settings\\Administrator\\桌面\\a.html");
OutputStreamWriter osw=new OutputStreamWriter(fos);
BufferedWriter bw=new BufferedWriter(osw);
bw.write(doc.toString());
bw.flush();
fos.close();
osw.close();
bw.close();
catch (Exception e)
e.printStackTrace();



public static Document readUrlFist(String url)
Document doc = null;
Connection conn = Jsoup.connect(url);
conn.header(
"User-Agent",
"Mozilla/5.0 (Macintosh; U; Intel Mac OS X 10.4; en-US; rv:1.9.2.2) Gecko/20100316 Firefox/3.6.2 Googlebot/2.1");
try
doc = conn.timeout(200 * 1000).get();
catch (IOException e)
e.printStackTrace();
if ((e instanceof UnknownHostException)
|| (e instanceof SocketTimeoutException))
doc = readUrlFist(url);



return doc;


本回答被提问者采纳

Java爬虫之HttpClient与Jsoup详解

一、HttpClient

网络爬虫就是用程序帮助我们访问网络上的资源,我们一直以来都是使用HTTP协议访问互联网的网页,网络爬虫需要编写程序,在这里使用同样的HTTP协议访问网页。
这里我们使用Java的HTTP协议客户端 HttpClient这个技术,来实现抓取网页数据。

所需依赖

<dependency>
        <groupId>org.apache.httpcomponents</groupId>
        <artifactId>httpclient</artifactId>
        <version>4.5.3</version>
</dependency>

1. GET请求

//创建HttpClient对象
CloseableHttpClient httpClient = HttpClients.createDefault();

//创建HttpGet请求
HttpGet httpGet = new HttpGet("");//爬取网页地址

//使用HttpClient发起请求
response = httpClient.execute(httpGet);

//获取请求数据
String content = EntityUtils.toString(response.getEntity(), “UTF-8”);

2. 带参数的GET请求

  1. 在uri地址后用?key=value的形式手动携带请求参数
  2. //设置请求地址是:http://liujin.top/search?keys=Java
    //创建URIBuilder
    URIBuilder uriBuilder = new URIBuilder(“http://liujin.top/search?keys=Java”);
    //设置参数
    uriBuilder.setParameter(“keys”,“Java”);
    //创建HttpGet对象,设置url访问地址
    HttpGet httpGet = new HttpGet(uriBuilder.build());

3. POST请求

HttpPost httpPost = new HttpPost(“http://www.liujin.top”);

4. 带参数的POST请求

  1. 创建HttpPost对象,设置url访问地址
    HttpPost httpPost = new HttpPost(“http://www.liujin.top/search”);

  2. 声明List集合,封装表单中的参数
    List params = new ArrayList();

  3. 设置请求地址是:http://www.liujin.top/search?keys=Java
    params.add(new BasicNameValuePair(“keys”,“Java”));

  4. 创建表单的Entity对象,第一个参数就是封装好的表单数据,第二个参数就是编码
    UrlEncodedFormEntity formEntity = new UrlEncodedFormEntity(params,“utf8”);

  5. 设置表单的Entity对象到Post请求中
    httpPost.setEntity(formEntity);

5. 连接池

如果每次请求都要创建HttpClient,会有频繁创建和销毁的问题,可以使用连接池来解决这个问题

public static void main(String[] args) 
    PoolingHttpClientConnectionManager cm = new PoolingHttpClientConnectionManager();

    //    设置最大连接数
    cm.setMaxTotal(200);

    //    设置每个主机的并发数
    cm.setDefaultMaxPerRoute(20);

    doGet(cm);

    doGet(cm);



private static void doGet(PoolingHttpClientConnectionManager cm) 
    CloseableHttpClient httpClient = HttpClients.custom().setConnectionManager(cm).build();

    HttpGet httpGet = new HttpGet("http://www.liujin.top");

    CloseableHttpResponse response = null;

    try 
        response = httpClient.execute(httpGet);

        // 判断状态码是否是200
        if (response.getStatusLine().getStatusCode() == 200) 
            // 解析数据
            String content = EntityUtils.toString(response.getEntity(), "UTF-8");
            System.out.println(content.length());
        


     catch (Exception e) 
        e.printStackTrace();
     finally 
        //释放连接
        if (response == null) 
            try 
                response.close();
             catch (IOException e) 
                e.printStackTrace();
            
            //不能关闭HttpClient
            //httpClient.close();
        
    


6. 连接池请求参数

public static void main(String[] args) throws IOException 
    //创建HttpClient对象
    CloseableHttpClient httpClient = HttpClients.createDefault();

    //创建HttpGet请求
    HttpGet httpGet = new HttpGet("http://www.liujin.top");

    //设置请求参数
    RequestConfig requestConfig = RequestConfig.custom()
            .setConnectTimeout(1000)//设置创建连接的最长时间
            .setConnectionRequestTimeout(500)//设置获取连接的最长时间
            .setSocketTimeout(10 * 1000)//设置数据传输的最长时间
            .build();

    httpGet.setConfig(requestConfig);

    CloseableHttpResponse response = null;
    try 
        //使用HttpClient发起请求
        response = httpClient.execute(httpGet);

        //判断响应状态码是否为200
        if (response.getStatusLine().getStatusCode() == 200) 
            //如果为200表示请求成功,获取返回数据
            String content = EntityUtils.toString(response.getEntity(), "UTF-8");
            //打印数据长度
            System.out.println(content);
        

     catch (Exception e) 
        e.printStackTrace();
     finally 
        //释放连接
        if (response == null) 
            try 
                response.close();
             catch (IOException e) 
                e.printStackTrace();
            
            httpClient.close();
        
    


二、 Jsoup

jsoup 是一款Java 的HTML解析器,可直接解析某个URL地址、HTML文本内容。它提供了一套非常省力的API,可通过DOM,CSS以及类似于jQuery的操作方法来取出和操作数据

所需依赖

<dependency>
    <groupId>org.jsoup</groupId>
    <artifactId>jsoup</artifactId>
    <version>1.10.3</version>
</dependency>

1. 解析url

Jsoup可以直接输入url,它会发起请求并获取数据,封装为Document对象

@Test
public void testJsoupUrl() throws Exception 
    //    解析url地址,后面的1000ms指解析时间
    Document document = Jsoup.parse(new URL("http://www.liujin.top"), 1000);

    //获取title的内容
    Element title = document.getElementsByTag("title").first();
    System.out.println(title.text());


2. 解析字符串

Jsoup可以直接输入字符串,并封装为Document对象

@Test
public void testJsoupString() throws Exception 
    //读取文件获取
    String html = FileUtils.readFileToString(new File("D:\\\\jsoup.html"), "UTF-8");

    //    解析字符串
    Document document = Jsoup.parse(html);

    //获取title的内容
    Element title = document.getElementsByTag("title").first();
    System.out.println(title.text());



3. 解析文件

Jsoup可以直接解析文件,并封装为Document对象

@Test
public void testJsoupHtml() throws Exception 
    //    解析文件
    Document document = Jsoup.parse(new File("D:\\\\jsoup.html"),"UTF-8");
    //获取title的内容
    Element title = document.getElementsByTag("title").first();
    System.out.println(title.text());


4. 使用dom方式遍历文档

元素获取

  1. 根据id查询元素getElementById
  2. 根据标签获取元素getElementsByTag
  3. 根据class获取元素getElementsByClass
  4. 根据属性获取元素getElementsByAttribute
//1.    根据id查询元素getElementById
Element element = document.getElementById("city_bj");

//2.   根据标签获取元素getElementsByTag
element = document.getElementsByTag("title").first();

//3.   根据class获取元素getElementsByClass
element = document.getElementsByClass("s_name").last();

//4.   根据属性获取元素getElementsByAttribute
element = document.getElementsByAttribute("abc").first();
element = document.getElementsByAttributeValue("class", "city_con").first();

元素中获取数据

//获取元素
Element element = document.getElementById("test");

//1.   从元素中获取id
String str = element.id();

//2.   从元素中获取className
str = element.className();

//3.   从元素中获取属性的值attr
str = element.attr("id");

//4.   从元素中获取所有属性attributes
str = element.attributes().toString();

//5.   从元素中获取文本内容text
str = element.text();

5. 使用选择器语法查找元素

jsoup elements对象支持类似于CSS (或jquery)的选择器语法,来实现非常强大和灵活的查找功能。这个select方法在Document, Element,Elements对象中都可以使用。且是上下文相关的,因此可实现指定元素的过滤,或者链式选择访问。
Select方法将返回一个Elements集合,并提供一组方法来抽取和处理结果。

1. Selector选择器概述

  • tagname: 通过标签查找元素,比如:span
  • #id: 通过ID查找元素,比如:# city_bj
  • .class: 通过class名称查找元素,比如:.class_a
  • [attribute]: 利用属性查找元素,比如:[abc]
  • [attr=value]: 利用属性值来查找元素,比如:[class=s_name]
//tagname: 通过标签查找元素,比如:span
Elements span = document.select("span");
for (Element element : span) 
    System.out.println(element.text());


//#id: 通过ID查找元素,比如:#city_bjj
String str = document.select("#city_bj").text();

//.class: 通过class名称查找元素,比如:.class_a
str = document.select(".class_a").text();

//[attribute]: 利用属性查找元素,比如:[abc]
str = document.select("[abc]").text();

//[attr=value]: 利用属性值来查找元素,比如:[class=s_name]
str = document.select("[class=s_name]").text();

2. Selector选择器组合使用

  • el#id: 元素+ID,比如: h3#city_bj
  • el.class: 元素+class,比如: li.class_a
  • el[attr]: 元素+属性名,比如: span[abc]
    任意组合: 比如:span[abc].s_name
  • ancestor child: 查找某个元素下子元素,比如:.city_con li 查找"city_con"下的所有li
  • parent > child: 查找某个父元素下的直接子元素,比如:
  • .city_con > ul > li查找city_con第一级(直接子元素)的ul,再找所有ul下的第一级li
  • parent > *: 查找某个父元素下所有直接子元素
//el#id: 元素+ID,比如: h3#city_bj
String str = document.select("h3#city_bj").text();

//el.class: 元素+class,比如: li.class_a
str = document.select("li.class_a").text();

//el[attr]: 元素+属性名,比如: span[abc]
str = document.select("span[abc]").text();

//任意组合,比如:span[abc].s_name
str = document.select("span[abc].s_name").text();

//ancestor child: 查找某个元素下子元素,比如:.city_con li 查找"city_con"下的所有li
str = document.select(".city_con li").text();

//parent > child: 查找某个父元素下的直接子元素,
//比如:.city_con > ul > li 查找city_con第一级(直接子元素)的ul,再找所有ul下的第一级li
str = document.select(".city_con > ul > li").text();

//parent > * 查找某个父元素下所有直接子元素.city_con > *
str = document.select(".city_con > *").text();

以上是关于最近做java网页爬虫用jsoup 写了一个方法main执行正常 放在action里调用这个方法就不正常求解的主要内容,如果未能解决你的问题,请参考以下文章

Java做爬虫也很牛

java jsoup 爬虫 怎么防止重复爬取

Java做爬虫也很方便

java jsoup怎样爬取特定网页内的数据

Java爬虫之HttpClient与Jsoup详解

如何使用java写一个轻量的爬取动态内容 的爬虫