从Web抓取信息

Posted 回冬

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了从Web抓取信息相关的知识,希望对你有一定的参考价值。

一、webbrowser模块——打开浏览器获取指定页面

 

open()函数 能够启动一个新浏览器

#!python 3
#!mapIt.py - Launches a map in the browser using an address  from the command line or clipboard.

import webbrowser, sys, pyperclip
if len(sys.argv) > 1:
    address =  .join(sys.argv[1:])  # Get address from command line.
else:
    address = pyperclip.paste()       # Get address from clipboard.

webbrowser.open(https://www.google.com/map/place/ + address)

 

 

 


 

二、requests模块——从Internet上下载文件和网页

 

下载并保存到文件的步骤:

①调用requests.get()下载该文件

②用‘wb‘调用open(),以写二进制的方式打开一个新文件

③利用Respose对象的iter_content()方法循环

④在每次迭代中调用write(),将内容写入该文件

⑤调用close()关闭该文件

 

import requests
res = requests.get(http://www.gutenberg.org/cache/epub/1112/pg1112.txt)
res.raise_for_status()     # 确保程序在下载失败时停止
playFile = open(RomeoAndJuliet.txt, wb)
for chunk in res.iter_content(100000):
    playFile.write(chunk)

100000
78981

playFile.close()

 


 

三、Beautiful Soup——解析html,即网页编写格式

 

1. bs4.BeautufulSoup() 返回一个BeautifulSoup对象

2. soup.select() 方法返回一个Tag对象的列表,是BeautifulSoup表示一个HTML元素的方式

                       CSS选择器(网络上有各个示例)

3. getText() 方法返回该元素文本,或内部HTML

4. get() 方法返回属性值

#! python3
# lucky.py - Open several Google search results.

import requests, sys, webbrowser, bs4

print(Googling... )   # display text while downloading the Google page
res = requests.get(http://google.com/search?q= +  .join(sys.argv[1: ]))
res.raise_for_status()

soup = bs4.BeautifulSoup(res.text)  # Retrieve top search result links.
linkElems = soup.select(.r a)     # Open a browser tab for each result.
numOpen = min(5, len(linkElems))
for i in range(numOpen):
    webbrowser.open(http://google.com + linkElems[i].get(href))

 


 

四、selenium——启动并控制一个Web浏览器

               (selenium能够填写表单,并模拟鼠标在这个浏览器中点击)

 

1.   启动 selenium 控制的浏览器

>>> from selenium import webdriver
>>> browser = webdriver.Firefox()
>>> type(browser)
<class selenium.webdriver.Firefox.webdriver.WebDriver>
>>> browser.get(http://inventwithpython.com)

 

2. 在页面中寻找元素

        1. find_element_* 方法   返回一个WebElement对象

        2. find_elements_* 方法   返回WebElement_*对象的列表

 

3. click() 方法 :点击页面

4. send_keys() 方法 : 填写并提交表单

5. from selenium.webdriver.commom.keys import Keys  : 发送特殊键

 


以上是关于从Web抓取信息的主要内容,如果未能解决你的问题,请参考以下文章

从Web抓取信息

python从web抓取信息

从Web抓取信息的几个常用方法

Python之Scrapy安装

使用 python 抓取谷歌精选片段

使用 VBA 从 Web 抓取数据时无法获取准确的元素类表