爬虫之selenium

Posted demiao

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了爬虫之selenium相关的知识,希望对你有一定的参考价值。

爬虫之selenium

简单使用

# from selenium import webdriver
# import time

# # webdriver.Chrome('谷歌浏览器的驱动路径')  # 指向谷歌浏览器驱动
# # webdriver.Firefox('火狐浏览器的驱动路径')  # 指向火狐浏览器驱动

使用步骤 (*******)


# # 1.通过谷歌浏览器驱动,打开谷歌浏览器
# # 打开浏览器方式一
# # driver = webdriver.Chrome(executable_path=r'C:Users15614Desktopchromedriver.exe')
#
# # 打开浏览器方式二  推荐
# driver = webdriver.Chrome()
#
# print(driver)
#
# # 2.往目标网站发送请求
# driver.get('https://www.baidu.com/')
#
# # 3.获取数据
# # 根据id查找标签
# input_tag = driver.find_element_by_id('kw')
# print(input_tag)
#
# time.sleep(10)
#
# driver.close()

改进

driver = webdriver.Chrome() #驱动是放在script文件中的
# print(driver)
try:
    # 2.往目标网站发送请求
    driver.get('https://www.baidu.com/')

    time.sleep(0.1)

    # 等待元素加载的两种方式:
    # 一 隐式等待,等待所有标签元素加载
    driver.implicitly_wait(10)

    # 3.获取数据
    # 根据id查找百度的input输入框
    input_tag = driver.find_element_by_id('kw')
    # print(input_tag)

    # 往百度输入输入cang老师
    input_tag.send_keys('cang老师')

    # 点击百度一下的按钮
    submit_button = driver.find_element_by_id('su')
    submit_button.click()

    # 二 显式等待, 等待某一个元素加载10s  (了解)
    # WebDriverWait('驱动对象', '等待的时间')
    # wait = WebDriverWait(driver, 10)
    # wait.until()

    time.sleep(5)

except Exception as e:
    print(e)

finally:
    driver.close()

以上是关于爬虫之selenium的主要内容,如果未能解决你的问题,请参考以下文章

爬虫之selenium模块

爬虫之Selenium

爬虫之selenium

爬虫系列之第3章-Selenium模块

python网页爬虫开发之六-Selenium使用

爬虫之selenium和webdriver—基础