如何使用nodejs做爬虫程序

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了如何使用nodejs做爬虫程序相关的知识,希望对你有一定的参考价值。

参考技术A

.

var request = require('request');
var cheerio = require('cheerio');
var URL = require('url-parse');

var START_URL = "http://www.baidu.com";
var SEARCH_WORD = "stemming";
var MAX_PAGES_TO_VISIT = 10;

var pagesVisited = ;
var numPagesVisited = 0;
var pagesToVisit = [];
var url = new URL(START_URL);
var baseUrl = url.protocol + "//" + url.hostname;

pagesToVisit.push(START_URL);
crawl();

function crawl() 
  if(numPagesVisited >= MAX_PAGES_TO_VISIT) 
    console.log("Reached max limit of number of pages to visit.");
    return;
  
  var nextPage = pagesToVisit.pop();
  if (nextPage in pagesVisited) 
    // We've already visited this page, so repeat the crawl
    crawl();
   else 
    // New page we haven't visited
    visitPage(nextPage, crawl);
  


function visitPage(url, callback) 
  // Add page to our set
  pagesVisited[url] = true;
  numPagesVisited++;

  // Make the request
  console.log("Visiting page " + url);
  request(url, function(error, response, body) 
     // Check status code (200 is HTTP OK)
     console.log("Status code: " + response.statusCode);
     if(response.statusCode !== 200) 
       callback();
       return;
     
     // Parse the document body
     var $ = cheerio.load(body);
     var isWordFound = searchForWord($, SEARCH_WORD);
     if(isWordFound) 
       console.log('Word ' + SEARCH_WORD + ' found at page ' + url);
      else 
       collectInternalLinks($);
       // In this short program, our callback is just calling crawl()
       callback();
     
  );


function searchForWord($, word) 
  var bodyText = $('html > body').text().toLowerCase();
  return(bodyText.indexOf(word.toLowerCase()) !== -1);


function collectInternalLinks($) 
    var relativeLinks = $("a[href^='/']");
    console.log("Found " + relativeLinks.length + " relative links on page");
    relativeLinks.each(function() 
        pagesToVisit.push(baseUrl + $(this).attr('href'));
    );

参考技术B 目标抓取网站上的妹子照片。第三方模块superagent:第三方Nodejs模块,用于处理服务器和客户端的Http请求。cheerio:为服务器端定制的Jquery实现。思路通过superagent获取目标网站的dom通过cheerio对dom进行解析,获得通用布局。如本回答被提问者采纳

基于nodejs 的多页面爬虫

前言

前端时间再回顾了一下node.js,于是顺势做了一个爬虫来加深自己对node的理解。 
主要用的到是request,cheerio,async三个模块 
request 
用于请求地址和快速下载图片流。 
https://github.com/request/request 
cheerio 
为服务器特别定制的,快速、灵活、实施的jQuery核心实现. 
便于解析html代码。 
https://www.npmjs.com/package/cheerio 
async 
异步调用,防止堵塞。 
http://caolan.github.io/async/

核心思路

  • 用request 发送一个请求。获取html代码,取得其中的img标签和a标签。
  • 通过获取的a表情进行递归调用。不断获取img地址和a地址,继续递归
  • 获取img地址通过request(photo).pipe(fs.createWriteStream(dir + “/” + filename));进行快速下载。
function requestall(url) {
  request({
    uri: url,
    headers: setting.header
  }, function (error, response, body) {
    if (error) {
      console.log(error);
    } else {
      console.log(response.statusCode);
      if (!error && response.statusCode == 200) {
        var $ = cheerio.load(body);
        var photos = [];
        $(‘img‘).each(function () {
          // 判断地址是否存在
          if ($(this).attr(‘src‘)) {
            var src = $(this).attr(‘src‘);
            var end = src.substr(-4, 4).toLowerCase();
            if (end == ‘.jpg‘ || end == ‘.png‘ || end == ‘.jpeg‘) {
              if (IsURL(src)) {
                photos.push(src);
              }
            }
          }
        });
        downloadImg(photos, dir, setting.download_v);
        // 递归爬虫
        $(‘a‘).each(function () {
          var murl = $(this).attr(‘href‘);
          if (IsURL(murl)) {
            setTimeout(function () {
              fetchre(murl);
            }, timeout);
            timeout += setting.ajax_timeout;
          } else {
            setTimeout(function () {
              fetchre("http://www.ivsky.com/" + murl);
            }, timeout);
            timeout += setting.ajax_timeout;
          }
        })
      }
    }
  });
}

  

防坑

1.在request通过图片地址下载时,绑定error事件防止爬虫异常的中断。 
2.通过async的mapLimit限制并发。 
3.加入请求报头,防止ip被屏蔽。 
4.获取一些图片和超链接地址,可能是相对路径(待考虑解决是否有通过方法)。

function downloadImg(photos, dir, asyncNum) {
  console.log("即将异步并发下载图片,当前并发数为:" + asyncNum);
  async.mapLimit(photos, asyncNum, function (photo, callback) {
    var filename = (new Date().getTime()) + photo.substr(-4, 4);
    if (filename) {
      console.log(‘正在下载‘ + photo);
      // 默认
      // fs.createWriteStream(dir + "/" + filename)
      // 防止pipe错误
      request(photo)
        .on(‘error‘, function (err) {
          console.log(err);
        })
        .pipe(fs.createWriteStream(dir + "/" + filename));
      console.log(‘下载完成‘);
      callback(null, filename);
    }
  }, function (err, result) {
    if (err) {
      console.log(err);
    } else {
      console.log(" all right ! ");
      console.log(result);
    }
  })
}

  



测试:
技术分享
可以感觉到速度还是比较快的。
技术分享

完整地址。https://github.com/hua1995116/node-crawler/





















以上是关于如何使用nodejs做爬虫程序的主要内容,如果未能解决你的问题,请参考以下文章

如何使用nodejs做爬虫程序

如何使用nodejs做爬虫程序

如何使用nodejs做爬虫程序

如何使用nodejs做爬虫程序

如何用nodejs开发爬虫程序?

如何使用 NodeJS 在本地测试 AWS Lambda 处理程序?