scrapy框架中如何使用selenuim

Posted duanhaoxin

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了scrapy框架中如何使用selenuim相关的知识,希望对你有一定的参考价值。

主程序代码:

技术分享图片
 1 import scrapy
 2 from selenium import  webdriver
 3 
 4 class SelenuimtestSpider(scrapy.Spider):
 5     name = selenuimTest
 6     # allowed_domains = [www.xxx.com]
 7     start_urls = [http://war.163.com/]
 8 
 9     def __init__(self):
10         #本地谷歌浏览器的驱动存放地址
11         self.bro = webdriver.Chrome(rD:爬虫相关资料驱动程序chromedriver_win32chromedriver.exe)
12     def parse(self, response):
13         print(response.xpath(/html/body/div[1]/div[3]/div[4]/div[1]/div/div/ul/li/div/div[3]/div[1]/h3/a/text()).extract_first())
14 
15 
16     def closed(self,spider):
17         self.bro.quit()    
爬虫代码

 

以上是关于scrapy框架中如何使用selenuim的主要内容,如果未能解决你的问题,请参考以下文章

scrapy主动退出爬虫的代码片段(python3)

scrapy框架shell使用

Python之Scrapy安装

分享《精通Python爬虫框架Scrapy》中文PDF+英文PDF+源代码+Python网络数据采集

如何在scrapy框架下用python爬取json文件

09 Scrapy框架在爬虫中的使用