Selenium 中的多线程/多处理

Posted

技术标签:

【中文标题】Selenium 中的多线程/多处理【英文标题】:Multithreading / Multiprocessing in Selenium 【发布时间】:2020-10-03 07:03:34 【问题描述】:

我编写了一个 python 脚本,它从文本文件中抓取 url 并从元素中打印出 href。然而,我的目标是通过多处理或多线程使其更快地在更大范围内完成。

在工作流程中,每个浏览器进程都会从当前 url 获取 href,并在同一浏览器中从 que 加载下一个链接(假设有 5 个)。当然,每个链接都应该被刮掉 1 次。

示例输入文件HNlinks.txt

https://news.ycombinator.com/user?id=ingve
https://news.ycombinator.com/user?id=dehrmann
https://news.ycombinator.com/user?id=thanhhaimai
https://news.ycombinator.com/user?id=rbanffy
https://news.ycombinator.com/user?id=raidicy
https://news.ycombinator.com/user?id=svenfaw
https://news.ycombinator.com/user?id=ricardomcgowan

代码:

from selenium import webdriver

driver = webdriver.Chrome()
input1 = open("HNlinks.txt", "r")
urls1 = input1.readlines()

for url in urls1:
    driver.get(url)

    links=driver.find_elements_by_class_name('athing')
    for link in links:
        print(link.find_element_by_css_selector('a').get_attribute("href"))

【问题讨论】:

【参考方案1】:

使用多处理*

注意:我没有在本地测试运行这个答案。 请尝试并提供反馈:

from multiprocessing import Pool
from selenium import webdriver

input1 = open("HNlinks.txt", "r")
urls1 = input1.readlines()

def load_url(url):
    driver = webdriver.Chrome()
    driver.get(url)
    links=driver.find_elements_by_class_name('athing')
    for link in links:
        print(link.find_element_by_css_selector('a').get_attribute("href"))

if __name__ == "__main__":
    # how many concurrent processes do you want to span? this is also limited by 
    the number of cores that your computer has.
    processes = len(urls1)
    p = Pool(processes ) 
    p.map(load_url, urls1)
    p.close()
    p.join()

【讨论】:

编辑:用 if name == 'main' 修复:

以上是关于Selenium 中的多线程/多处理的主要内容,如果未能解决你的问题,请参考以下文章

Python 中的多线程还是串行处理?

Python中的多处理与线程

Python中的多线程并行运行

Python 线程与 Linux 中的多处理

Kafka consumer在项目中的多线程处理方式

Java中的多线程