如何用python的selenium提取页面所有资源加载的链接

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了如何用python的selenium提取页面所有资源加载的链接相关的知识,希望对你有一定的参考价值。

参考技术A 用浏览器打开你那个连接(完整加载),通过
查看源
找到你要的数据(记住标记,比如某个元素),selenium+python获取到页面代码再去判断查找你的标记就知道是否加载完了。
参考技术B 最近需要写一个爬虫,逻辑上有一个环节是取得一个页面的所有资源加载链接(html5页面)
(ps:python下的确是是有个第三方包叫Ghost.py可以取得,但是尝试后效果并不好,估计是因为Ghost.py的webkit对html5的支持并不好。)
选择用selenium,但是没找到selenium的webdriver下取得所有资源加载链接的方法。
selenium包下有一个selenium模块。查看源码时看到有个get_all_links方法。但是一直没找到这个模块的用法。
最后,求解答。谢谢大家。
方法不成的话,就自己do
it把:
all_links
=
browser.find_element_by_xpath('//a')
for
a
in
all_links:
a.getAttribute('href')

如何用python+selenium+phantomjs获得一个网页的动态生成的html代码

参考技术A

一般我们使用python的第三方库requests及框架scrapy来爬取网上的资源,但是设计javascript渲染的页面却不能抓取,此时,我们使用web自动化测试化工具Selenium+无界面浏览器PhantomJS来抓取javascript渲染的页面,下面实现一个简单的爬取

环境搭建

准备工具:python3.5,selenium,phantomjs

我的电脑里面已经装好了python3.5

安装Selenium

1

pip3 install selenium

安装Phantomjs  

按照系统环境下载phantomjs,下载完成之后,将phantomjs.exe解压到python的script文件夹下

使用selenium+phantomjs实现简单爬虫

123456789

from selenium import webdriver  driver = webdriver.PhantomJS()driver.get('httpdu.com')   #加载网页data = driver.page_source   #获取网页文本driver.save_screenshot('1.png')   #截图保存print(data)driver.quit()

selenium+phantomjs的一些使用方法

设置请求头里的user-Agent

123456789101112

from selenium import webdriverfrom selenium.webdriver.common.desired_capabilities import DesiredCapabilities  dcap = dict(DesiredCapabilities.PHANTOMJS)  #设置useragentdcap['phantomjs.page.settings.userAgent'] = ('Mozilla/5.0 (Macintosh; Intel Mac OS X 10.9; rv:25.0) Gecko/20100101 Firefox/25.0 ')  #根据需要设置具体的浏览器信息driver = webdriver.PhantomJS(desired_capabilities=dcap)  #封装浏览器信息driver.get('h.com')   #加载网页data = driver.page_source   #获取网页文本driver.save_screenshot('1.png')   #截图保存print(data)driver.quit()

请求超时设置

webdriver类中有三个和时间相关的方法:

1.pageLoadTimeout    设置页面完全加载的超时时间,完全加载即完全渲染完成,同步和异步脚本都执行完

2.setScriptTimeout    设置异步脚本的超时时间

3.implicitlyWait         识别对象的智能等待时间

1234567

from selenium import webdriver driver = webdriver.PhantomJS()driver.set_page_load_timeout(5)  #设置超时时间driver.get('httbaidu.com')print(driver.title)driver.quit()

设置浏览器窗口大小

调用启动的浏览器不是全屏的,有时候会影响我们的某些操作,所以我们可以设置全屏 

12

driver.maximize_window()  #设置全屏driver.set_window_size('480','800') #设置浏览器宽480,高800

元素定位

123456789101112131415161718

from selenium import webdriver driver = webdriver.PhantomJS()driver.set_page_load_timeout(5)driver.get('idu.com')try:    driver.get('.com')    driver.find_element_by_id('kw')  # 通过ID定位    driver.find_element_by_class_name('s_ipt')  # 通过class属性定位    driver.find_element_by_name('wd')  # 通过标签name属性定位    driver.find_element_by_tag_name('input')  # 通过标签属性定位    driver.find_element_by_css_selector('#kw')  # 通过css方式定位    driver.find_element_by_xpath("//input[@id='kw']")  # 通过xpath方式定位    driver.find_element_by_link_text("贴吧")  # 通过xpath方式定位    print(driver.find_element_by_id('kw').tag_name ) # 获取标签的类型except Exception as e:    print(e)driver.quit()

操作浏览器前进或后退

1234567891011121314

from selenium import webdriverdriver = webdriver.PhantomJS()try:    driver.get('httaidu.com')   #访问百度首页    driver.save_screenshot('1.png')    driver.get('ht.sina.com.cn') #访问新浪首页    driver.save_screenshot('2.png')    driver.back()                           #回退到百度首页    driver.save_screenshot('3.png')    driver.forward()                        #前进到新浪首页    driver.save_screenshot('4.png')except Exception as e:    print(e)driver.quit()

好文要顶 关注我 收藏该文  

以上是关于如何用python的selenium提取页面所有资源加载的链接的主要内容,如果未能解决你的问题,请参考以下文章

如何用空白替换文本中提取的 HTML 标签?

页面有很多链接,如何用selenium进行自动化测试,验证每个链接的正确性

如何用 Hook 实时处理和保存 Ajax 数据

如何用beautifulsoup提取网页某个部分的所有链接? [复制]

如何用python模拟点击onclick

爬虫如何用python+selenium网页爬虫