爬虫之selenium
Posted demiao
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了爬虫之selenium相关的知识,希望对你有一定的参考价值。
爬虫之selenium
简单使用
# from selenium import webdriver
# import time
# # webdriver.Chrome('谷歌浏览器的驱动路径') # 指向谷歌浏览器驱动
# # webdriver.Firefox('火狐浏览器的驱动路径') # 指向火狐浏览器驱动
使用步骤 (*******)
# # 1.通过谷歌浏览器驱动,打开谷歌浏览器
# # 打开浏览器方式一
# # driver = webdriver.Chrome(executable_path=r'C:Users15614Desktopchromedriver.exe')
#
# # 打开浏览器方式二 推荐
# driver = webdriver.Chrome()
#
# print(driver)
#
# # 2.往目标网站发送请求
# driver.get('https://www.baidu.com/')
#
# # 3.获取数据
# # 根据id查找标签
# input_tag = driver.find_element_by_id('kw')
# print(input_tag)
#
# time.sleep(10)
#
# driver.close()
改进
driver = webdriver.Chrome() #驱动是放在script文件中的
# print(driver)
try:
# 2.往目标网站发送请求
driver.get('https://www.baidu.com/')
time.sleep(0.1)
# 等待元素加载的两种方式:
# 一 隐式等待,等待所有标签元素加载
driver.implicitly_wait(10)
# 3.获取数据
# 根据id查找百度的input输入框
input_tag = driver.find_element_by_id('kw')
# print(input_tag)
# 往百度输入输入cang老师
input_tag.send_keys('cang老师')
# 点击百度一下的按钮
submit_button = driver.find_element_by_id('su')
submit_button.click()
# 二 显式等待, 等待某一个元素加载10s (了解)
# WebDriverWait('驱动对象', '等待的时间')
# wait = WebDriverWait(driver, 10)
# wait.until()
time.sleep(5)
except Exception as e:
print(e)
finally:
driver.close()
以上是关于爬虫之selenium的主要内容,如果未能解决你的问题,请参考以下文章