关于随机浏览头伪装fake-UserAgent

Posted z-x-y

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了关于随机浏览头伪装fake-UserAgent相关的知识,希望对你有一定的参考价值。

使用:

from fake_useragent import UserAgent

 

ua = UserAgent()
#ie浏览器的user agent
print(ua.ie)
Mozilla/5.0 (Windows; U; MSIE 9.0; Windows NT 9.0; en-US)
#opera浏览器
print(ua.opera)
Opera/9.80 (X11; Linux i686; U; ru) Presto/2.8.131 Version/11.11
#chrome浏览器
print(ua.chrome)
Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.2 (Khtml, like Gecko) Chrome/22.0.1216.0 Safari/537.2
#firefox浏览器
print(ua.firefox)
Mozilla/5.0 (Windows NT 6.2; Win64; x64; rv:16.0.1) Gecko/20121011 Firefox/16.0.1
#safri浏览器
print(ua.safari)
Mozilla/5.0 (iPad; CPU OS 6_0 like Mac OS X) AppleWebKit/536.26 (KHTML, like Gecko) Version/6.0 Mobile/10A5355d Safari/8536.25

最实用的

但我认为写爬虫最实用的是可以随意变换headers,一定要有随机性。在这里我写了三个随机生成user agent,三次打印都不一样,随机性很强,十分方便。

from fake_useragent import UserAgent
ua = UserAgent()
print(ua.random)
print(ua.random)
print(ua.random)
Mozilla/5.0 (X11; Ubuntu; Linux i686; rv:15.0) Gecko/20100101 Firefox/15.0.1
Mozilla/5.0 (Windows NT 6.2; Win64; x64; rv:16.0.1) Gecko/20121011 Firefox/16.0.1
Opera/9.80 (X11; Linux i686; U; ru) Presto/2.8.131 Version/11.11

爬虫中具体使用方法

import requests
from fake_useragent import UserAgent
ua = UserAgent()
headers = {‘User-Agent‘: ua.random}
url = ‘待爬网页的url‘
resp = requests.get(url, headers=headers)

以上是关于关于随机浏览头伪装fake-UserAgent的主要内容,如果未能解决你的问题,请参考以下文章

一款好用的工具fake-useragent及浏览器代理池

Scrapy 增加随机请求头 user_agent

scrapy基础知识之随机切换fake-useragent 库的使用:

python爬虫获取浏览器payload?

Python3中通过fake_useragent生成随机UserAgent

Python scrapy 伪装代理和fake_userAgent的使用