scrapy中的selenium
Posted wqzn
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了scrapy中的selenium相关的知识,希望对你有一定的参考价值。
引入
- 在通过scrapy框架进行某些网站数据爬取的时候,往往会碰到页面动态数据加载的情况发生,如果直接使用scrapy对其url发请求,是绝对获取不到那部分动态加载出来的数据值。但是通过观察我们会发现,通过浏览器进行url请求发送则会加载出对应的动态加载出的数据。那么如果我们想要在scrapy也获取动态加载出的数据,则必须使用selenium创建浏览器对象,然后通过该浏览器对象进行请求发送,获取动态加载的数据值。
1.案例分析:
- 需求:爬取网易新闻的国内板块下的新闻数据
- 需求分析:当点击国内超链进入国内对应的页面时,会发现当前页面展示的新闻数据是被动态加载出来的,如果直接通过程序对url进行请求,是获取不到动态加载出的新闻数据的。则就需要我们使用selenium实例化一个浏览器对象,在该对象中进行url的请求,获取动态加载的新闻数据。
2.selenium在scrapy中使用的原理分析:
当引擎将国内板块url对应的请求提交给下载器后,下载器进行网页数据的下载,然后将下载到的页面数据,封装到response中,提交给引擎,引擎将response在转交给Spiders。Spiders接受到的response对象中存储的页面数据里是没有动态加载的新闻数据的。要想获取动态加载的新闻数据,则需要在下载中间件中对下载器提交给引擎的response响应对象进行拦截,切对其内部存储的页面数据进行篡改,修改成携带了动态加载出的新闻数据,然后将被篡改的response对象最终交给Spiders进行解析操作。
3.selenium在scrapy中的使用流程:
1.在spider的构造方法中创建一个浏览器对象(作为当前spider的一个属性) 2.重写spider的一个方法closed(self,spider),在该方法中执行浏览器关闭的操作 3.在下载中间件的process_response方法中,通过spider参数获取浏览器对象 4.在中间件的process_response中定制基于浏览器自动化的操作代码(获取动态加载出来的页面源码数据) 5.实例化一个响应对象,且将page_source返回的页面源码封装到该对象中 6.返回该新的响应对象
4.代码:
爬虫代码:
import scrapy from selenium import webdriver class WangyiSpider(scrapy.Spider): name = ‘wangyi‘ # allowed_domains = [‘www.xxx.com‘] start_urls = [‘http://war.163.com/‘] def __init__(self): self.bro = webdriver.Chrome(executable_path=r‘F:上课作业视频爬虫s15day137爬虫chromedriver.exe‘) def parse(self, response): div_list = response.xpath(‘//div[@class="data_row news_article clearfix "]‘) for div in div_list: title = div.xpath(‘.//div[@class="news_title"]/h3/a/text()‘).extract_first() print(title) def closed(self,spider): print(‘关闭浏览器对象!‘) self.bro.quit()
middlewares.py
from scrapy import signals from scrapy.http import htmlResponse from time import sleep def process_response(self, request, response, spider): # Called with the response returned from the downloader. # Must either; # - return a Response object # - return a Request object # - or raise IgnoreRequest print(‘即将返回一个新的响应对象!!!‘) #获取动态加载出来的数据 bro = spider.bro bro.get(url=request.url) sleep(3) #包含了动态加载出来的新闻数据 page_text = bro.page_source sleep(3) return HtmlResponse(url=spider.bro.current_url,body=page_text,encoding=‘utf-8‘,request=request)
settings配置
USER_AGENT = ‘Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.119 Safari/537.36‘ ROBOTSTXT_OBEY = False DOWNLOADER_MIDDLEWARES = { ‘wangyiPro.middlewares.WangyiproDownloaderMiddleware‘: 543, } LOG_LEVEL = ‘ERROR‘
以上是关于scrapy中的selenium的主要内容,如果未能解决你的问题,请参考以下文章
与Python Scrapy中的Selenium WebDriver并发