Java爬虫爬取 天猫 淘宝 京东 搜索页和 商品详情

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Java爬虫爬取 天猫 淘宝 京东 搜索页和 商品详情相关的知识,希望对你有一定的参考价值。

Java爬虫爬取 天猫 淘宝 京东 搜索页和 商品详情

先识别商品url,区分平台提取商品编号,再根据平台带着商品编号爬取数据。

1.导包

<!-- 爬虫相关Jar包依赖 -->
    <dependency>
      <groupId>org.apache.poi</groupId>
      <artifactId>poi-ooxml</artifactId>
      <version>3.10-FINAL</version>
    </dependency>
    <dependency>
      <groupId>org.apache.httpcomponents</groupId>
      <artifactId>httpclient</artifactId>
      <version>4.5.3</version>
    </dependency>
    <dependency>
      <groupId>org.jsoup</groupId>
      <artifactId>jsoup</artifactId>
      <version>1.11.3</version>
    </dependency>

    <dependency>
      <groupId>org.projectlombok</groupId>
      <artifactId>lombok</artifactId>
      <scope>provided</scope>
    </dependency>

2.封装返回类型和常量

引入lombok 注入@Data 来避免写get set toString等重复代码


package java1024.xyz.vo;

import lombok.Data;

/**

}

package java1024.xyz.vo;

/**

import com.fasterxml.jackson.annotation.JsonFormat;
import lombok.Data;

import java.io.Serializable;
import java.sql.Timestamp;

/**

}


## 3.前期工作做好后开始封装 识别url工具 UrlUtils.java

/**

}


## 4.爬取天猫方法

> Java 爬虫说明:创建HttpClient,设置请求头,执行请求,解析相应!具体代码也有相应的解析

public Product soupTmallDetailById(Long number) {

    try {

        // 需要爬取商品信息的网站地址
        String url = "https://chaoshi.detail.tmall.com/item.htm?id=" + number;
        // 动态模拟请求数据
        CloseableHttpClient httpclient = HttpClients.createDefault();
        HttpGet httpGet = new HttpGet(url);
        // 模拟浏览器浏览(user-agent的值可以通过浏览器浏览,查看发出请求的头文件获取)
        httpGet.setHeader("user-agent", "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.102 Safari/537.36");
        CloseableHttpResponse response = httpclient.execute(httpGet);
        // 获取响应状态码
        int statusCode = response.getStatusLine().getStatusCode();
        try {
            HttpEntity entity = response.getEntity();
            // 如果状态响应码为200,则获取html实体内容或者json文件
            if (statusCode == 200) {
                String html = EntityUtils.toString(entity, Consts.UTF_8);
                // 提取HTML得到商品信息结果
                Document doc = null;
                // doc获取整个页面的所有数据
                doc = Jsoup.parse(html);
                //输出doc可以看到所获取到的页面源代码
              //System.out.println(doc);
                // 通过浏览器查看商品页面的源代码,找到信息所在的div标签,再对其进行一步一步地解析
                Element item = doc.select("div[class=‘tb-wrap‘]").get(0);
                //Elements liList = ulList.select("div[class=‘product‘]");
                // 循环liList的数据(具体获取的数据值还得看doc的页面源代码来获取,可能稍有变动)
                //System.out.println("item = " + item);
                Product product = new Product();
                //for (Element item : ulList) {
                    // 商品ID
                try {
                    product.setNumber(number);
                    product.setPlatformId(1);
                    //String id = item.select("div[class=‘tb-detail-hd‘]").select("h1").attr("data-spm");
                    String title = item.select("div[class=‘tb-detail-hd‘]").select("h1").text();
                    product.setTitle(title);
                    product.setUrl(UrlConst.TMALL_PRODUCT_DETAIL+number);

                    System.out.println("商品title:" + title);
                    //String priceStr = item.select("div[class=‘tm-price-panel‘]").select("div[class=‘tm-promo-type‘]").select("span[class=‘tm-price‘]").text();

                    return product;
                }catch (Exception e) {
                    product.setId(0L);
                    product.setTitle("商品不存在");
                    return product;
                }
                // }
            }
        }catch (Exception e) {
            e.printStackTrace();
            Product product = new Product();
            product.setId(0L);
            product.setTitle("商品不存在");
            return product;
        }

    }catch (Exception e) {
        e.printStackTrace();
    }

    return null;
}

## 5.爬取京东商品详情方法

public Product soupTaobaoDetailById(Long number) {

    try {

        // 需要爬取商品信息的网站地址
        String url = "https://item.taobao.com/item.htm?id=" + number;
        // 动态模拟请求数据
        CloseableHttpClient httpclient = HttpClients.createDefault();
        HttpGet httpGet = new HttpGet(url);
        // 模拟浏览器浏览(user-agent的值可以通过浏览器浏览,查看发出请求的头文件获取)
        httpGet.setHeader("user-agent", "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.102 Safari/537.36");
        CloseableHttpResponse response = httpclient.execute(httpGet);
        // 获取响应状态码
        int statusCode = response.getStatusLine().getStatusCode();
        try {
            HttpEntity entity = response.getEntity();
            // 如果状态响应码为200,则获取html实体内容或者json文件
            if (statusCode == 200) {
                String html = EntityUtils.toString(entity, Consts.UTF_8);
                // 提取HTML得到商品信息结果
                Document doc = null;
                // doc获取整个页面的所有数据
                doc = Jsoup.parse(html);
                //输出doc可以看到所获取到的页面源代码
                //System.out.println(doc);
                // 通过浏览器查看商品页面的源代码,找到信息所在的div标签,再对其进行一步一步地解析
                Element item = doc.select("div[class=‘tb-item-info-r‘]").get(0);
                //Elements liList = ulList.select("div[class=‘product‘]");
                // 循环liList的数据(具体获取的数据值还得看doc的页面源代码来获取,可能稍有变动)
                //System.out.println("item = " + item);
                Product product = new Product();
                //for (Element item : ulList) {
                // 商品ID
                try {
                    product.setNumber(number);
                    product.setPlatformId(2);
                    //String id = item.select("div[class=‘tb-detail-hd‘]").select("h1").attr("data-spm");
                    String title = item.select("div[class=‘tb-title‘]").select("h3").text();
                    product.setTitle(title);
                    product.setUrl(UrlConst.TAOBAO_PRODUCT_DETAIL+number);

                    System.out.println("商品title:" + title);

                    return product;
                }catch (Exception e) {
                    product.setId(0L);
                    product.setTitle("商品不存在");
                    return product;
                }
                // }
            }
        }catch (Exception e) {
            e.printStackTrace();
            Product product = new Product();
            product.setId(0L);
            product.setTitle("商品不存在");
            return product;
        }

    }catch (Exception e) {
        e.printStackTrace();
    }

    return null;
}

## 6.天猫搜索功能

public List<Product> soupTaobaoByKeyWord(String keyword) {

    try {

        String input = "毛巾";
        // 需要爬取商品信息的网站地址 实际中把input改成 keyword
        String url = "https://list.tmall.com/search_product.htm?q=" + input;
        // 动态模拟请求数据
        CloseableHttpClient httpclient = HttpClients.createDefault();
        HttpGet httpGet = new HttpGet(url);
        // 模拟浏览器浏览(user-agent的值可以通过浏览器浏览,查看发出请求的头文件获取)
        httpGet.setHeader("user-agent", "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.102 Safari/537.36");
        CloseableHttpResponse response = httpclient.execute(httpGet);
        // 获取响应状态码
        int statusCode = response.getStatusLine().getStatusCode();
        try {
            HttpEntity entity = response.getEntity();
            // 如果状态响应码为200,则获取html实体内容或者json文件
            if (statusCode == 200) {
                String html = EntityUtils.toString(entity, Consts.UTF_8);
                // 提取HTML得到商品信息结果
                Document doc = null;
                // doc获取整个页面的所有数据
                doc = Jsoup.parse(html);
                //输出doc可以看到所获取到的页面源代码
        //      System.out.println(doc);
                // 通过浏览器查看商品页面的源代码,找到信息所在的div标签,再对其进行一步一步地解析
                Elements ulList = doc.select("div[class=‘view grid-nosku‘]");
                Elements liList = ulList.select("div[class=‘product‘]");
                // 循环liList的数据(具体获取的数据值还得看doc的页面源代码来获取,可能稍有变动)
                for (Element item : liList) {
                    // 商品ID
                    String id = item.select("div[class=‘product‘]").select("p[class=‘productStatus‘]").select("span[class=‘ww-light ww-small m_wangwang J_WangWang‘]").attr("data-item");
                    System.out.println("商品ID:" + id);
                    // 商品名称
                    String name = item.select("p[class=‘productTitle‘]").select("a").attr("title");
                    System.out.println("商品名称:" + name);
                    // 商品价格
                    String price = item.select("p[class=‘productPrice‘]").select("em").attr("title");
                    System.out.println("商品价格:" + price);
                    // 商品网址
                    String goodsUrl = item.select("p[class=‘productTitle‘]").select("a").attr("href");
                    System.out.println("商品网址:" + goodsUrl);
                    // 商品图片网址
                    String imgUrl = item.select("div[class=‘productImg-wrap‘]").select("a").select("img").attr("data-ks-lazyload");
                    System.out.println("商品图片网址:" + imgUrl);
                    System.out.println("------------------------------------");
                }
                // 消耗掉实体
                EntityUtils.consume(response.getEntity());
            } else {
                // 消耗掉实体
                EntityUtils.consume(response.getEntity());
            }
        } finally {
            response.close();
        }
    }catch (Exception e) {
        e.printStackTrace();
    }

    return null;

}


## 7.利用爬虫技术完成的一个 商品历史价格记录网站 项目——值得吗?价格记录网站 github地址:https://github.com/xivinChen/zhi-de-ma


以上是关于Java爬虫爬取 天猫 淘宝 京东 搜索页和 商品详情的主要内容,如果未能解决你的问题,请参考以下文章

爬虫 爬取天猫商品的封面信息

对于淘宝、京东商品评论只能看100页的反爬虫措施要怎么解决,怎么才能爬取一件商品的所有评论

Python爬虫——淘宝商品信息定向爬虫

python爬虫获取天猫与京东的商品价格

如何用爬虫抓取京东商品评价

如何用python写一个爬虫统计淘宝某件商品的销量