python3 爬虫之爬取糗事百科
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了python3 爬虫之爬取糗事百科相关的知识,希望对你有一定的参考价值。
闲着没事爬个糗事百科的笑话看看
python3中用urllib.request.urlopen()打开糗事百科链接会提示以下错误
http.client.RemoteDisconnected: Remote end closed connection without response
但是打开别的链接就正常,很奇怪不知道为什么,没办法改用第三方模块requests,也可以用urllib3模块,还有一个第三方模块就是bs4(beautifulsoup4)
requests模块安装和使用,这里就不说了
附上官方链接:http://docs.python-requests.org/en/master/
>>> r = requests.get(‘https://api.github.com/user‘, auth=(‘user‘, ‘pass‘)) >>> r.status_code 200 >>> r.headers[‘content-type‘] ‘application/json; charset=utf8‘ >>> r.encoding ‘utf-8‘ >>> r.text u‘{"type":"User"...‘ >>> r.json() {u‘private_gists‘: 419, u‘total_private_repos‘: 77, ...}
urllib3模块安装和使用,这里也不说了
附上官方链接:https://urllib3.readthedocs.io/en/latest/
>>> import urllib3 >>> http = urllib3.PoolManager() >>> r = http.request(‘GET‘, ‘http://httpbin.org/robots.txt‘) >>> r.status 200 >>> r.data ‘User-agent: *\nDisallow: /deny\n‘
bs4模块安装和使用
附上官方链接:https://www.crummy.com/software/BeautifulSoup/
好了,上面三个模块有兴趣的可以自己研究学习下,以下是代码:
爬取糗事百科的段子和图片
import requests import urllib.request import re def get_html(url): page = requests.get(url) return page.text def get_text(html,file): textre = re.compile(r‘content">\n*<span>(.*)</span>‘) textlist = re.findall(textre,html) num = 0 txt = [] for i in textlist: num += 1 txt.append(str(num)+‘.‘+i+‘\n‘*2) with open(file,‘w‘,encoding=‘utf-8‘) as f: f.writelines(txt) def get_img(html): imgre = re.compile(r‘<img src="(.*\.JPEG)" alt=‘,re.IGNORECASE) imglist = re.findall(imgre,html) x = 0 for imgurl in imglist: x += 1 urllib.request.urlretrieve(imgurl, ‘%s.jpg‘ % x) html = get_html("http://www.qiushibaike.com/8hr/page/2/") get_text(html,‘a.txt‘) get_img(html)
很简单,欢迎大家吐槽,有兴趣的可以加群一块学习(219636001)
本文出自 “baby神” 博客,请务必保留此出处http://babyshen.blog.51cto.com/8405584/1889553
以上是关于python3 爬虫之爬取糗事百科的主要内容,如果未能解决你的问题,请参考以下文章