基于Selenium库模拟用户行为的QQ空间爬虫

Posted hhr346

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了基于Selenium库模拟用户行为的QQ空间爬虫相关的知识,希望对你有一定的参考价值。

QQ空间爬虫

代码链接:https://github.com/hhr346/QQ_zone_crawl

该程序的主要实现过程是进入某位好友的空间中,并自动爬取说说的文本内容并存储到txt文件中。方法是使用Chrome浏览器的自动执行功能,来实现翻页,并对html的源代码进行文本提取,通过正则表达式来实现某一块内容的提取。将发布人名称、说说的文本内容、发布日期都写入一个文本文件中。

主要参考文章链接为(https://blog.csdn.net/weixin_43325134/article/details/105859772)

借鉴了该文章的思路,但根据我自己的需求做了较多的更改,具体有以下几个方面:

  1. 更换了爬取的门户网站,从而更换了之前的自动向下滚动的方式,而是通过翻页的方式来爬取说说;
  2. 没有用pyautogui的库,从而不需要让鼠标一直保持在浏览器上;
  3. 我比较在意动态内容,所以在存储内容上也有所不同,并且将所有动态内容存储到一个文件里,从而更高效的利用空间;
  4. 鲁棒性较好,不会因为刷新问题而找不到按钮从而报错;
  5. 增加了对“展开全文”的点击,从而爬取完整的内容;

具体使用过程:

  1. 下载和自己当前的浏览器版本一致的Chrome Driver,下载网址为(https://chromedriver.chromium.org/);
  2. 填入自己的qq号在my_qq变量里,和要爬取的好友qq号在friendlist,并且在程序运行前先登录桌面端的qq程序,从而更方便快捷的登录qq空间;
  3. 运行程序,并注意可能存在的刷新问题。在出现问题时查看浏览器页面的情况(一般情况下等一段时间就好了)
  4. 在out文件夹里存有爬取的好友列表的说说文件。

注意事项:

  1. 有时候登录可能会比较慢,可以等一会或者重新打开一次(感觉自动登录的速度还不如我直接手动点击呢);
  2. 在网页元素刷新里延时时间很重要,因为刷新不及时导致其还是不能获取也是可能的;
  3. 在使用正则表达式表达时,比较难找到一个普适性的规则,这里本来打算是添加“来自”这个手机标签的,但是有一些说说不会有这个标签(可能是桌面端发的),所以妥协就可能把一部分的来自xxx也加入到日期里了;
  4. 该程序只处理文本,所以图片和只转发内容的不包含其中;

总结:

  1. 查找元素这件事还是有些令人头疼,要精准有效又要有普适性,需要尝试较多次才能找到合适的方法(可能想办法表示其最直观的意义比较好);
  2. 其实能找到自己的朋友圈也可以爬取所有好友的动态内容,但是问题在于有没有翻页的选项;
  3. 后续可添加自动获取全部好友qq号列表的功能,循环获取好友的空间信息、评论的获取、评论的展开等;
  4. 解决了展开按钮的点击问题(虽然可能也会有一些漏网之鱼),但是却可能触发了qq的反爬虫机制,到70页左右就会显示“当前访问人数较多”的页面,导致不能继续爬了。

如果还想继续发展可能要自动判断和重试,但需要等较长时间才能恢复正常。

爬虫:Selenium库使用

一:Selenium简介

selenium 是一套完整的web应用程序测试系统,包含了测试的录制(selenium IDE),编写及运行(Selenium Remote Control)和测试的并行处理(Selenium Grid)。Selenium的核心Selenium Core基于JsUnit,完全由JavaScript编写,因此可以用于任何支持JavaScript的浏览器上。

selenium可以模拟真实浏览器,自动化测试工具,支持多种浏览器,爬虫中主要用来解决JavaScript渲染问题。

二:Selenium基本使用

用python写爬虫的时候,主要用的是selenium的Webdriver。(个人主要使用Chrome浏览器)

(1):声明浏览器对象

selenium支持很多的浏览器,但是如果想要声明并调用浏览器则需要:

from selenium import webdriver

browser = webdriver.Chrome()
browser = webdriver.Firefox()

(2):访问页面

from selenium import webdriver

browser = webdriver.Chrome()

browser.get("http://www.baidu.com")
print(browser.page_source)
browser.close() 

# 运行后,会自动打开Chrome浏览器,并登陆百度打印百度首页的源代码,然后关闭浏览器

(3):查找元素

单个元素查找:

from selenium import webdriver

browser = webdriver.Chrome()
browser.get(https://www.taobao.com)
input_first = browser.find_element_by_id(q) # 用id来寻找元素
input_second = browser.find_element_by_css_selector(#q) # 用css选择器
input_third = browser.find_element_by_xpath(//*[@id="q"]) # 用xpath来选择
print(input_first, input_second, input_third)
browser.close() # 关闭浏览器

####################### 常用的查找元素的方法
find_element_by_name
find_element_by_id
find_element_by_xpath
find_element_by_link_text
find_element_by_partial_link_text
find_element_by_tag_name
find_element_by_class_name
find_element_by_css_selector
########################

通用的查找方式:By模块

from selenium import webdriver

from selenium.webdriver.common.by import By

browser = webdriver.Chrome()

browser.get("http://www.taobao.com")
input_first = browser.find_element(By.ID,"q")
print(input_first)
browser.close()

#当然这种方法和上述的方式是通用的,browser.find_element(By.ID,"q")这里By.ID中的ID可以替换为其他几个

多个元素查找

# 其实多个元素和单个元素的区别,举个例子:find_elements,单个元素是find_element,其他使用上没什么区别

from selenium import webdriver

browser = webdriver.Chrome()
browser.get("http://www.taobao.com")
lis = browser.find_elements_by_css_selector(.service-bd li) # 获得的是列表
print(lis)
browser.close()

# 上面这种也可以用By来实现
# lis = browser.find_elements(By.CSS_SELECTOR,‘.service-bd li‘)

###########################
find_elements_by_name
find_elements_by_id
find_elements_by_xpath
find_elements_by_link_text
find_elements_by_partial_link_text
find_elements_by_tag_name
find_elements_by_class_name
find_elements_by_css_selector
###########################

元素交互操作

from selenium import webdriver
import time

browser = webdriver.Chrome()
browser.get("http://www.taobao.com")
input_str = browser.find_element_by_id(q) # 找到搜索框
input_str.send_keys("手机") # 输入手机
time.sleep(1)
input_str.clear()  # 清除搜索框
input_str.send_keys("电脑") # 输入电脑
button = browser.find_element_by_class_name(btn-search)
button.click() # 点击按钮

# 运行的结果可以看出程序会自动打开Chrome浏览器并打开淘宝输入手机,然后删除,重新输入电脑,并点击搜索

Selenium的api文档--》查看

交互动作

--》详情

# 交互动作,驱动浏览器进行动作,模拟拖拽动作,将动作附加到动作链中串行执行
from selenium import webdriver
from selenium.webdriver import ActionChains#引入动作链

browser = webdriver.Chrome()
url = http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable
browser.get(url)
browser.switch_to.frame(iframeResult)#切换到iframeResult框架
source = browser.find_element_by_css_selector(#draggable)#找到被拖拽对象
target = browser.find_element_by_css_selector(#droppable)#找到目标
actions = ActionChains(browser)#声明actions对象
actions.drag_and_drop(source, target)
actions.perform()#执行动作

执行JavaScript

# 有些动作可能没有提供api,比如进度条下拉,这时,我们可以通过代码执行JavaScript
from selenium import webdriver
browser = webdriver.Chrome()
browser.get(https://www.zhihu.com/explore)
browser.execute_script(window.scrollTo(0, document.body.scrollHeight))
browser.execute_script(alert("To Bottom"))

获取元素属性

# 获取属性  get_attribute(‘class‘)
from selenium import webdriver
from selenium.webdriver import ActionChains

browser = webdriver.Chrome()
url = https://www.zhihu.com/explore
browser.get(url)
logo = browser.find_element_by_id(zh-top-link-logo)#获取网站logo
print(logo)
print(logo.get_attribute(class))
browser.close()

获取文本值

from selenium import webdriver
browser = webdriver.Chrome()
url = https://www.zhihu.com/explore
browser.get(url)
input = browser.find_element_by_class_name(zu-top-add-question)
print(input.text)#input.text文本值
browser.close()

# 获取Id,位置,标签名,大小
from selenium import webdriver
browser = webdriver.Chrome()
url = https://www.zhihu.com/explore
browser.get(url)
input = browser.find_element_by_class_name(zu-top-add-question)
print(input.id)#获取id
print(input.location)#获取位置
print(input.tag_name)#获取标签名
print(input.size)#获取大小
browser.close()
Frame操作
# frame相当于独立的网页,如果在父类网frame查找子类的,则必须切换到子类的frame,子类如果查找父类也需要先切换
# 常用的是switch_to.from()和switch_to.parent_frame()
from selenium import webdriver from selenium.common.exceptions import NoSuchElementException browser = webdriver.Chrome() url = http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable browser.get(url) browser.switch_to.frame(iframeResult) source = browser.find_element_by_css_selector(#draggable) print(source) try: logo = browser.find_element_by_class_name(logo) except NoSuchElementException: print(NO LOGO) browser.switch_to.parent_frame() logo = browser.find_element_by_class_name(logo) print(logo) print(logo.text)

等待 --》详细内容

隐式等待

到了一定的时间发现元素还没有加载,则继续等待我们指定的时间,如果超过了我们指定的时间还没有加载就会抛出异常,如果没有需要等待的时候就已经加载完毕就会立即执行

当使用了隐式等待执行测试的时候,如果 WebDriver没有在 DOM中找到元素,将继续等待,超出设定时间后则抛出找不到元素的异常,换句话说,当查找元素或元素并没有立即出现的时候,隐式等待将等待一段时间再查找 DOM,默认的时间是0

from selenium import webdriver

browser = webdriver.Chrome()
browser.implicitly_wait(10) # 等待十秒加载不出来就会抛出异常,10秒内加载出来正常返回
browser.get(https://www.zhihu.com/explore)
input = browser.find_element_by_class_name(zu-top-add-question)
print(input)

显示等待 

指定一个等待条件,和一个最长等待时间,程序会判断在等待时间内条件是否满足,如果满足则返回,如果不满足会继续等待,超过时间就会抛出异常

from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC

browser = webdriver.Chrome()
browser.get(https://www.taobao.com/)
wait = WebDriverWait(browser, 10)
input = wait.until(EC.presence_of_element_located((By.ID, q)))
button = wait.until(EC.element_to_be_clickable((By.CSS_SELECTOR, .btn-search)))
print(input, button)


######################
title_is 标题是某内容
title_contains 标题包含某内容
presence_of_element_located 元素加载出,传入定位元组,如(By.ID, p)
visibility_of_element_located 元素可见,传入定位元组
visibility_of 可见,传入元素对象
presence_of_all_elements_located 所有元素加载出
text_to_be_present_in_element 某个元素文本包含某文字
text_to_be_present_in_element_value 某个元素值包含某文字
frame_to_be_available_and_switch_to_it frame加载并切换
invisibility_of_element_located 元素不可见
element_to_be_clickable 元素可点击
staleness_of 判断一个元素是否仍在DOM,可判断页面是否已经刷新
element_to_be_selected 元素可选择,传元素对象
element_located_to_be_selected 元素可选择,传入定位元组
element_selection_state_to_be 传入元素对象以及状态,相等返回True,否则返回False
element_located_selection_state_to_be 传入定位元组以及状态,相等返回True,否则返回False
alert_is_present 是否出现Alert
#######################
前进后退-实现浏览器的前进后退以浏览不同的网页
import time
from selenium import webdriver

browser = webdriver.Chrome()
browser.get(https://www.baidu.com/)
browser.get(https://www.taobao.com/)
browser.get(https://www.python.org/)
browser.back() # 后退
time.sleep(1)
browser.forward() # 前进
browser.close()
Cookies
from selenium import webdriver

browser = webdriver.Chrome()
browser.get(https://www.zhihu.com/explore)
print(browser.get_cookies())
browser.add_cookie({name: name, domain: www.zhihu.com, value: germey}) # 添加Cookies
print(browser.get_cookies()) # 获取cookies
browser.delete_all_cookies() # 删除全部cookie
print(browser.get_cookies())
选项卡管理 增加浏览器窗口
import time
from selenium import webdriver

browser = webdriver.Chrome()
browser.get(https://www.baidu.com)
browser.execute_script(window.open()) # 执行js命令打开新的选项卡
print(browser.window_handles) # 不同的选项卡存在列表里
browser.switch_to_window(browser.window_handles[1]) # 可以操作的第二个选项卡
browser.get(https://www.taobao.com)
time.sleep(1)
browser.switch_to_window(browser.window_handles[0])
browser.get(http://www.fishc.com)

异常处理--》详情内容

from selenium import webdriver
from selenium.common.exceptions import TimeoutException, NoSuchElementException

browser = webdriver.Chrome()
try:
    browser.get(https://www.baidu.com)
except TimeoutException:
    print(Time Out)
try:
    browser.find_element_by_id(hello)
except NoSuchElementException:
    print(No Element)
finally:
    browser.close()

 

以上是关于基于Selenium库模拟用户行为的QQ空间爬虫的主要内容,如果未能解决你的问题,请参考以下文章

python爬虫入门Selenium模拟用户操作

python爬虫:使用Selenium模拟浏览器行为

爬虫-使用模拟浏览器操作(截取网页)

爬虫:Selenium库使用

Python爬虫编程思想(103):项目实战--抓取QQ空间说说的内容

Python爬虫编程思想(103):项目实战--抓取QQ空间说说的内容