使用browsercookie来管理浏览器cookies

Posted amiza

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了使用browsercookie来管理浏览器cookies相关的知识,希望对你有一定的参考价值。

处理cookie是很繁琐的一件事情,稍微有一点处理不对的话,就不能访问网站,最好的办法就是能操作浏览器cookie,这样是最真实的,在Python中有一个第三方库:

browsercookie就是来解决这件事情的。

 

技术分享图片

 

由于http协议的无状态性,登录验证都是通过传递cookies来实现的。通过浏览器登录一次,登录信息的cookie是就会被浏览器保存下来。下次再打开该网站时,浏览器自动带上保存的cookies,只有cookies还未过期,对于网站来说你就还是登录状态的。

browsercookie模块就是这样一个从浏览器提取保存的cookies的工具。它是一个很有用的爬虫工具,通过加载你浏览器的cookies到一个cookiejar对象里面,让你轻松下载需要登录的网页内容。

 

安装

pip install browsercookie

 

在Windows系统中,内置的sqlite模块在加载FireFox数据库时会抛出错误。需要更新sqlite的版本:

pip install pysqlite

使用方法

 

下面是从网页提取标题的例子:

>>> import re

>>> get_title = lambda html: re.findall(‘<title>(.*?)</title>‘, html, flags=re.DOTALL)[0].strip()

  

下面是未登录状况下下载得到的标题:

>>> import urllib2

>>> url = ‘https://bitbucket.org/‘

>>> public_html = urllib2.urlopen(url).read()

>>> get_title(public_html)

‘Git and Mercurial code management for teams‘

  

接下来使用browsercookie从登录过Bitbucket的FireFox里面获取cookie再下载:

>>> import browsercookie

>>> cj = browsercookie.firefox()

>>> opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj))

>>> login_html = opener.open(url).read()

>>> get_title(login_html)

‘richardpenman / home — Bitbucket‘

 

上面是Python2的代码,再试试 Python3:

 

>>> import urllib.request

>>> public_html = urllib.request.urlopen(url).read()

>>> opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor(cj))

  

你可以看到你的用户名出现在title里面了,说明browsercookie模块成功从FireFox加载了cookies。

下面是使用requests的例子,这次我们从Chrome里面加载cookies,当然你需要事先用Chrome登录Bitbucket:

 

>>> import requests

>>> cj = browsercookie.chrome()

>>> r = requests.get(url, cookies=cj)

>>> get_title(r.content)

‘richardpenman / home — Bitbucket‘

  

如果你不知道或不关心那个浏览器有你需要的cookies,你可以这样操作:

>>> cj = browsercookie.load()

>>> r = requests.get(url, cookies=cj)

>>> get_title(r.content)

‘richardpenman / home — Bitbucket‘

支持

 

很多用Python的人可能都写过网络爬虫,自动化获取网络数据确实是一件令人愉悦的事情,而Python很好的帮助我们达到这种愉悦。然而,爬虫经常要碰到各种登录、验证的阻挠,让人灰心丧气(网站:天天碰到各种各样的爬虫抓我们网站,也很让人灰心丧气~)。爬虫和反爬虫就是一个猫和老鼠的游戏,道高一尺魔高一丈,两者反复纠缠。

由于http协议的无状态性,登录验证都是通过传递cookies来实现的。通过浏览器登录一次,登录信息的cookie是就会被浏览器保存下来。下次再打开该网站时,浏览器自动带上保存的cookies,只有cookies还未过期,对于网站来说你就还是登录状态的。

browsercookie模块就是这样一个从浏览器提取保存的cookies的工具。它是一个很有用的爬虫工具,通过加载你浏览器的cookies到一个cookiejar对象里面,让你轻松下载需要登录的网页内容。

安装

pip install browsercookie

在Windows系统中,内置的sqlite模块在加载FireFox数据库时会抛出错误。需要更新sqlite的版本:
pip install pysqlite

使用方法

下面是从网页提取标题的例子:


>>> import re
>>> get_title = lambda html: re.findall(‘<title>(.*?)</title>‘, html, flags=re.DOTALL)[0].strip()

下面是未登录状况下下载得到的标题:


>>> import urllib2
>>> url = ‘https://bitbucket.org/‘
>>> public_html = urllib2.urlopen(url).read()
>>> get_title(public_html)
‘Git and Mercurial code management for teams‘

接下来使用browsercookie从登录过Bitbucket的FireFox里面获取cookie再下载:


>>> import browsercookie
>>> cj = browsercookie.firefox()
>>> opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj))
>>> login_html = opener.open(url).read()
>>> get_title(login_html)
‘richardpenman / home &mdash; Bitbucket‘

上面是Python2的代码,再试试 Python3:


>>> import urllib.request
>>> public_html = urllib.request.urlopen(url).read()
>>> opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor(cj))

你可以看到你的用户名出现在title里面了,说明browsercookie模块成功从FireFox加载了cookies。

下面是使用requests的例子,这次我们从Chrome里面加载cookies,当然你需要事先用Chrome登录Bitbucket:


>>> import requests
>>> cj = browsercookie.chrome()
>>> r = requests.get(url, cookies=cj)
>>> get_title(r.content)
‘richardpenman / home &mdash; Bitbucket‘

如果你不知道或不关心那个浏览器有你需要的cookies,你可以这样操作:


>>> cj = browsercookie.load()
>>> r = requests.get(url, cookies=cj)
>>> get_title(r.content)
‘richardpenman / home &mdash; Bitbucket‘

 

来自 https://www.yuanrenxue.com/crawler/get-login-cookies-browsercookie.html 的学习笔记


以上是关于使用browsercookie来管理浏览器cookies的主要内容,如果未能解决你的问题,请参考以下文章

Python 爬虫 cookie 实战博客,涉及 browsercookie 与 scrapy

cook的特性

易语言浏览器独立cook(多开)

易语言浏览器独立cook(多开)

cooke

F. Cooking Time 贪心