python动态渲染页面爬取Selenium的具体使用
Posted zhi_neng
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了python动态渲染页面爬取Selenium的具体使用相关的知识,希望对你有一定的参考价值。
上文我们讲了六个方面,下面我们继续介绍Selenium的使用方法。在上面的实例中,一些交互动作嗾使针对某个节点执行的。比如,对于输入框,我们就调用它的输入文字和清空文字方法;对于按钮,就调用它的点击方法。其实,还有一些另外的操作可以使用,具体下面讲解。
7.动作链
动作链就是一些没有特定执行对象,这些动作作用需要用另一种方式来执行,比如:鼠标拖拽、键盘按键等。我们现在要实现一个节点的拖拽操作,将某一个节点从一处拖拽到另外一边,可以这样实现:
from selenium import webdriver
from selenium.webdriver import ActionChains
browser = webdriver.Chrome()
url = 'http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable'
browser.get(url)
browser.switch_to.frame('iframeResult')
source = browser.find_element_by_css_selector('#draggable')
target = browser.find_element_by_css_selector('#droppable')
actions = ActionChains(browser)
actions.drag_and_drop(source,target)
actions.perform()
首先打开网页中的一个拖拽实例,然后依次选中要拖拽的节点和拖拽的目标节点,接着声明ActionsChains对象并将其赋值actions变量,然后通过调用actions变量的drag_and_drop()方法,在调用perform()方法执行动作,此时就完成了拖拽的操作,具体如下图。
大家可以代码自己演示一下,更多的动作链可以参考官方文档:http://selenium-python.readthedocs.io/api.html#module-selenium.webdriver.common.action_chains
8.执行JavaScript操作
对于某些操作,SeleniumAPI并没有提供。比如,下拉进度条,它可以直接模拟运行javascript,此时使用execute_script()方法即可实现,代码如下:
from selenium import webdriver
browser = webdriver.Chrome()
browser.get('https://www.zhihu.com/explore')
browser.execute_script('window.scrollTo(0,document.body.scrollHeight)')
browser.execute_script('alert("To Buttom")')
这里就利用execute_script()方法将进度条下拉到最底部,然后弹出alert提示框。有了这个方法,基本上API没有提供的所有功能都可以用执行JavaScript的方式来实现了。
9.获取节点信息
前面说过,通过page_source属性可以获取网页的源代码,接着就可以使用解析库(如正则表达式、Beautiful Soup、pyquery等)来提取信息了。
不过,既然Selenium已经提供了选择节点的方法,返回的是WebElement类型,那么它也有相关的方法和属性直接提取节点信息,如属性、文本等。这样的话,我们就可以不用通过解析源代码来提取信息了,非常方便。
接下来,就看看通过怎样的方式来获取节点信息吧。
1)获取属性
我们可以使用get_attribute()方法来获取节点的属性,但是其前提是先选中这个节点,示例如下:
from selenium import webdriver
from selenium.webdriver import ActionChains
browser = webdriver.Chrome()
url = 'https://www.zhihu.com/explore'
browser.get(url)
button = browser.find_element_by_xpath('//*[@id="special"]/div[2]/div/div[1]/div[4]/button')
print(button)
print(button.get_attribute('class'))
运行之后,程序便会驱动浏览器打开知乎页面,然后获取知乎的登录按钮button节点,最后打印出它的class。运行的结果如下:
<selenium.webdriver.remote.webelement.WebElement (session="54af8eb8e88f1b82e8c095ed45f12238", element="e2fbb66d-145f-44fb-bfd6-ad21db829910")>
Button ExploreHomePage-specialsLoginButton
通过get_attribute()方法,然后传入想要获取的属性名,就可以得到它的值了。
2)获取文本值
每个WebElement节点都有text属性,直接调用这个属性就可以得到节点内部的文本信息,这相当于Beautiful Soup的get_text()方法,pyquery的text()方法,具体事例如下:
from selenium inport wendriver
browser = webdriver.Chrome()
url = 'https://www.zhihu.com/explore'
browser.get(url)
button = browser.find_element_by_xpath('//*[@id="root"]/div/div[2]/header/div[1]/div[2]/div/div/button[2]')
print(button.text)
这里依然先打开知乎页面,然后获取‘加入知乎’这个按钮的节点,再将其文本值打印出来。
控制台的输出结果如下:
加入知乎
3)获取id、位置、标签名和大小
另外,WebElement节点还有一些其他属性,比如id属性可以获取节点id,location属性可以获取该节点在页面中的相对位置,tag_name属性可以获取标签名称,size属性可以获取节点的大小,也就是宽高,这些属性有时候还是很有用的。示例如下:
from selenium import webdriver
from selenium.webdriver import ActionChains
browser = webdriver.Chrome()
url = 'https://www.zhihu.com/explore'
browser.get(url)
button = browser.find_element_by_xpath('//*[@id="root"]/div/div[2]/header/div[1]/div[2]/div/div/button[2]')
print(button.id)
print(button.location)
print(button.tag_name)
print(button.size)
这里首先获得“加入知乎”按钮这个节点,然后调用其id、location、tag_name、size属性来获取对应的属性值。运行结果如下:
b2417cda-603e-4ff2-826a-343168d8ce5e
'x': 926, 'y': 9
button
'height': 34, 'width': 90
10.切换Frame
我们知道网页中有一种节点叫作iframe,也就是子Frame,相当于页面的子页面,它的结构和外部网页的结构完全一致。Selenium打开页面后,它默认是在父级Frame里面操作,而此时如果页面中还有字Frame,它是不能获取到子Frame里面的节点的,这时候就需要使用switch_to.frame()方法来切换Frame。示例如下:
from selenium import webdriver
import time
from selenium.common.exceptions import NoSuchElementException
browser = webdriver.Chrome()
url = 'http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable'
browser.get(url)
browser.switch_to.frame('iframeResult')
try:
logo = browser.find_element_by_class_name('logo')
except NoSuchElementException:
print('No Logo!')
browser.switch_to.parent_frame()
logo = browser.find_element_by_class_name('logo')
print(logo)
print(logo.text)
控制台的输出结果如下:
No Logo!
<selenium.webdriver.remote.webelement.WebElement (session="4fbfc6797c2c3d83f697fe2194b83566", element="b4715139-f3ae-4960-bcd9-ac2ec1e7d371")>
RUNOOB.COM
这里还是以前面演示动作链操作的网页为实例,首先通过switch_to.frame()方法切换到子Frame里面,然后尝试获取父级Frame里的logo节点(这是不能找到的),如果找不到的话,就会抛出NoSuchElementException异常,异常被捕获之后,就会输出No Logo!。接下来,重新切换会父级Frame,然后再次重新获取节点,发现此时可以成功获取了。
11.延时等待
在Selenium中,get()方法会网页框架加载结束后结束执行,此时如果获取page_source,可能并不是是浏览器完全加载完成的页面,如果某些页面有额外的ajax请求,我们在网页源代码中也不一定能够成功获取到。所以,这里需要延时等待一段时间,确保节点完全加载出来。
这里等待的方式有两种:一种是隐式等待,一种是显式等待。
1)隐式等待
当使用隐式等待执行测试的时候,如果Selenium没有在DOM中找到节点,将继续等待,超出设定时间后,则抛出找不到节点的异常。换句话说,当查找节点而节点没有立即找到的时候,隐式等待将等待一段时间后再次查找DOM,默认的时间是0。示例如下:
from selenium import webdriver
browser = webdriver.Chrome()
browser.implicitly_wait(10)
browser.get('https://www.zhihu.com/explore')
button = browser.find_element_by_xpath('//*[@id="root"]/div/div[2]/header/div[1]/div[2]/div/div/button[2]')
print(button)
这里我们使用implicitly_wait()方法实现了隐式等待。
2)显式等待
隐式等待的效果其实并没有那么好,因为我们只规定了一个固定时间,而页面的加载时间会受到网络条件的影响。
这里还有一种更合适的显式等待方法,它制定要查找的节点,然后制定一个最长等待时间。如果在规定时间内加载出来了这个节点,就返回查找的节点;如果到了规定时间依然没有加载出该节点,则抛出异常。示例如下:
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
browser = webdriver.Chrome()
browser.get('https://www.taobao.com')
wait = WebDriverWait(browser,10)
input = wait.until(EC.presence_of_all_elements_located((By.ID,'q')))
button = wait.until(EC.element_to_be_clickable((By.CSS_SELECTOR,'.btn-search')))
print(input,button)
这里首先引入WebDriverWait对象,指定最长的等待时间,然后调用它的until()方法,传入要等待条件expected_conditions。比如,这里传入了presence_of_element_located这个条件,代表节点出现的意思,其参数是节点的定位元组,也就是ID为q的节点搜索框。
这样可以做到的效果就是,在10秒内如果ID为q的节点(即搜索框)成功加载出来,就返回该节点;如果超过10秒还没有加载出来,就抛出异常。
对于按钮,可以更改一下等待条件,比如改为element_to_be_clickable,也就是可点击,所以查找按钮时查找CSS选择器.btn-search的按钮,如果10秒内它是可点击的,也就是成功加载出来了,就返回这个按钮节点;如果超过10秒还不可点击,也就是没有加载出来,就抛出异常。
运行代码,在网速较佳的情况下式可以成功加载出来的。控制台的输出结果如下:
[<selenium.webdriver.remote.webelement.WebElement (session="964bb83b648567bed5a4b6177d2dc2c0", element="adafdb84-4344-4331-b4e0-0f25c7165979")>] <selenium.webdriver.remote.webelement.WebElement (session="964bb83b648567bed5a4b6177d2dc2c0", element="2726cc03-9809-47c2-b93e-f87a5ebb491f")>
可以看到控制台输出了两个结果,他们都是WebElement类型。
如果网络有问题,10秒没有成功加载出来,那么就会抛出TimeoutException异常,此时控制台的输出如下:
TimeoutException Traceback(most recent call last)
关于等待条件,其实还有很多,比如判断标题内容,判断某个节点内是否出现了某文字等。
等待条件 | 含义 |
titile_is | 标题是某内容 |
title_contains | 标题包含某内容 |
presence_of_element_located | 节点加载出来,出入定位元组,如(By.ID,'p') |
visibility_of_element_located | 节点可见,传入定位元组 |
visibility_of | 可见,传入节点对象 |
presence_of_all_elements_locateds | 所有节点加载出来 |
text_to_be_present_in_element | 某个节点文本包含某文字 |
text_to_be_present_in_element_value | 某个节点值包含某文字 |
frame_to_be_available_and_switch_to_it | 加载并切换 |
invisibility_of_element_located | 节点不可见 |
element_to_be_clickable | 节点可点击 |
staleness_of | 判断一个节点是否仍在DOM,可判断页面是否刷新 |
element_to_be_selected | 节点可选择,传节点对象 |
element_located_to_be_selected | 节点可选择,传入定位元组 |
element_selection_state_to_be | 传入节点对象以及状态,相等返回TRUE,否则返回FALSE |
element_located_selection_state_to_be | 出入定位元组以及状态,相等返回TRUE,否则返回FALSE |
alert_is_present | 是否出现警告 |
关于更多等待条件的参数以及用法,可以参考官方文档:http://selenium-python.readthedocs.io/api.html#module-selenium.webdriver.support.expected_conditions。
12.前进和后退
平常使用流浪器都有前进和后退功能,Selenium也可以完成这样的操作,它使用back()方法后退,使用forward()方法前进。比如下面:
from selenium import webdriver
import time
browser = webdriver.Chrome()
browser.get("https://www.baidu.com")
browser.get("https://www.taobao.com")
browser.get("https://www.python.org")
browser.back()
time.sleep(1)
browser.forward()
browser.close()
这里我们连续访问3个页面,然后调用back()方法回到第二个页面,接下来再调用forward()方法又可以前进到第三个页面。
13.Cookies
使用Selenium,还可以方便地对Cookies进行操作,例如获取、添加、删除Cookies等。示例如下:
from selenium import webdriver
browser = webdriver.Chrome()
browser.get('https://www.zhihu.com/explore')
print(browser.get_cookies())
browser.add_cookie('name':'name','domai':'www.zhihu.com','value':'germey')
print(browser.get_cookies())
browser.delete_all_cookies()
print(browser.get_cookies())
首先,我们访问了知乎。加载完成之后,浏览器实际上已经生成Cookies了。接着,调用get_cookies()方法获取所有的Cookies。然后,我们添加一个Cookies。可以发现,结果就多了这一项新加的Cookies。最后,调用delete_all_cookies()方法删除所有的Cookies。再重新获取,发现结果就为空了。
控制台的输出结果如下所示:
['domain': 'www.zhihu.com', 'httpOnly': False, 'name': 'KLBRSID', 'path': '/', 'secure': False, 'value': 'af132c66e9ed2b57686ff5c489976b91|1625394244|1625394243', 'domain': '.zhihu.com', 'expiry': 1656930244, 'httpOnly': False, 'name': 'Hm_lvt_98beee57fd2ef70ccdd5ca52b9740c49', 'path': '/', 'secure': False, 'value': '1625394244', 'domain': '.zhihu.com', 'httpOnly': False, 'name': 'Hm_lpvt_98beee57fd2ef70ccdd5ca52b9740c49', 'path': '/', 'secure': False, 'value': '1625394244', 'domain': '.zhihu.com', 'expiry': 1720002243, 'httpOnly': False, 'name': 'd_c0', 'path': '/', 'secure': False, 'value': '"AEAeS6VWXBOPTu6HoThIdYhShzbe22ykshc=|1625394243"', 'domain': '.zhihu.com', 'httpOnly': False, 'name': '_xsrf', 'path': '/', 'secure': False, 'value': '28987f20-f1a3-434c-8032-32a2af3b4d24', 'domain': '.zhihu.com', 'expiry': 1688466243, 'httpOnly': False, 'name': '_zap', 'path': '/', 'secure': False, 'value': '809a51eb-5990-4d72-a409-81ea772bdd76']
['domain': 'www.zhihu.com', 'httpOnly': False, 'name': 'name', 'path': '/', 'secure': True, 'value': 'germey', 'domain': 'www.zhihu.com', 'httpOnly': False, 'name': 'KLBRSID', 'path': '/', 'secure': False, 'value': 'af132c66e9ed2b57686ff5c489976b91|1625394244|1625394243', 'domain': '.zhihu.com', 'expiry': 1656930244, 'httpOnly': False, 'name': 'Hm_lvt_98beee57fd2ef70ccdd5ca52b9740c49', 'path': '/', 'secure': False, 'value': '1625394244', 'domain': '.zhihu.com', 'httpOnly': False, 'name': 'Hm_lpvt_98beee57fd2ef70ccdd5ca52b9740c49', 'path': '/', 'secure': False, 'value': '1625394244', 'domain': '.zhihu.com', 'expiry': 1720002243, 'httpOnly': False, 'name': 'd_c0', 'path': '/', 'secure': False, 'value': '"AEAeS6VWXBOPTu6HoThIdYhShzbe22ykshc=|1625394243"', 'domain': 'www.zhihu.com', 'httpOnly': False, 'name': 'SESSIONID', 'path': '/', 'secure': False, 'value': '5YDM33GXDKglApBJNJeCdinC61o1qpzrfbXfLNpoCqt', 'domain': '.zhihu.com', 'httpOnly': False, 'name': '_xsrf', 'path': '/', 'secure': False, 'value': '28987f20-f1a3-434c-8032-32a2af3b4d24', 'domain': '.zhihu.com', 'expiry': 1688466243, 'httpOnly': False, 'name': '_zap', 'path': '/', 'secure': False, 'value': '809a51eb-5990-4d72-a409-81ea772bdd76']
[]
14.选项卡管理
在访问页面的时候,会开启一个个选项卡。在Selenium中,我们也可以对选项卡进行操作。示例如下:
from selenium import webdriver
import time
browser = webdriver.Chrome()
browser.get('https://www.baidu.com')
browser.execute_script('window.open()')
print(browser.window_handles)
browser.switch_to_window(browser.window_handles[1])
browser.get('https://www.taobao.com')
time.sleep(1)
browser.switch_to_window(browser.window_handles[0])
browser.get('https://python.org')
首先访问了百度,然后调用execute_script()方法,这里传入window.open()这个JavaScript语句先开启一个选项卡。接下来,我们切换到该选项卡。这里调用window_handles属性获取当前开启的所有选项卡,返回的是选项卡的代号列表。要想切换选项卡,只需要调用switch_to_window()方法即可,其中参数是选项卡的代号。这里我们将第二个选项卡代号传入,即跳转到第二个选项卡,接下来在第二个选项卡下打开一个新的页面,然后切换回第一个选项卡重新调用switch_to_window()方法,再执行其他操作即可。
15.异常处理
在使用Selenium的过程中,难免会遇到一些异常,例如超时、节点未找到等错误,一旦出现此类错误,程序便不会继续运行了。这里我们可以使用try except语句来捕获各种异常。
首先,演示一下节点未找到的异常,示例如下:
from seleniunm import webdriver
browser = webdriver.Chrome()
browser.get('https://www.baidu.com')
browser.find_element_by_id('hello')
这里首先打开百度网址,然后尝试选择一个并不存在的节点,此时就会遇到异常。
运行之后控制台的输出如下:
selenium.common.exceptions.NoSuchElementException: Message: no such element: Unable to locate element: "method":"css selector","selector":"[id="hello"]"
(Session info: chrome=91.0.4472.114)
可以看到这里抛出了NoSuchElementException异常,这通常是节点未找到的异常。为了防止程序遇到异常而中断,我们需要捕获这些异常,示例如下:
from selenium import webdriver
from selenium.common.exceptions import TimeoutException,NoSuchElementException
browser = webdriver.Chrome()
try:
browser.get('https://www.baidu.com')
except TimeoutError:
print('Time Out')
try:
browser.find_element_by_id('hello')
except NoSuchElementException:
print('No Element')
finally:
browser.close()
这里我们使用try_except来捕获各类异常。比如,我们对find_element_by_id()查找节点的方法捕获NoSuchElementException异常,这样一旦出现这样的错误,就进行异常处理,程序也不会中断了。
控制台输出的如下:
No Element
关于更多的异常类,可以参考官方文档:http://selenium-python.readthedocs.io/api.html#module-selenium.common.exceptions
到此处,我基本对Selenium的常规用法有了大致的了解。使用Selenium,处理JavaScript不再是难事。
以上是关于python动态渲染页面爬取Selenium的具体使用的主要内容,如果未能解决你的问题,请参考以下文章