爬虫实战2:爬出头条网美图

Posted regit

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了爬虫实战2:爬出头条网美图相关的知识,希望对你有一定的参考价值。

 

完整代码经测试可成功运行,目的是抓取头条网输入街拍后的图片

 

有几个问题点不明白

1. 查看头信息,参数表和代码中params有些不同,不知道代码中的参数是怎么来的

offset: 40
format: json
keyword: 街拍
autoload: true
count: 20
cur_tab: 1
from: search_tab

 

2. 第51行代码不明白

new_image_url = local_image_url.replace(‘list‘,‘large‘)

说明:经验证,//p3.pstatp.com/list/pgc-image/153077042661778985015b6这个地址是返回一个图片的缩小版,如果把地址中的list改为large就能变成大图。

 

 

完整代码如下

 1 import os
 2 import requests
 3 from urllib.parse import urlencode
 4 from hashlib import md5
 5 from multiprocessing.pool import Pool
 6 
 7 GROUP_START = 1
 8 GROUP_END = 5
 9 
10 
11 def get_page(offset):
12     params = {
13         offset: offset,
14         format: json,
15         keyword: 街拍,
16         autoload: true,
17         count: 20,
18         cur_tab: 3,
19         from: gallery,
20     }
21     url = https://www.toutiao.com/search_content/? + urlencode(params)
22     try:
23         response = requests.get(url)
24         if response.status_code == 200:
25             return response.json()   #调用json方法,将结果转为json格式
26     except requests.ConnectionError:
27         return None
28 
29 
30 def get_images(json):
31     data = json.get(data)
32     if data:
33         for item in data:
34             # print(item)
35             image_list = item.get(image_list)
36             title = item.get(title)
37             # print(image_list)
38             if image_list:
39                 for image in image_list:
40                     yield {
41                         image: image.get(url),
42                         title: title
43                     }
44 
45 
46 def save_image(item):
47     if not os.path.exists(item.get(title)):
48         os.mkdir(item.get(title))
49     try:
50         local_image_url = item.get(image)
51         new_image_url = local_image_url.replace(list,large)
52         response = requests.get(http: + new_image_url)
53         if response.status_code == 200:
54             file_path = {0}/{1}.{2}.format(item.get(title), md5(response.content).hexdigest(), jpg)
55             if not os.path.exists(file_path):
56                 with open(file_path, wb)as f:
57                     f.write(response.content)
58             else:
59                 print(Already Downloaded, file_path)
60     except requests.ConnectionError:
61         print(Failed to save image)
62 
63 
64 def main(offset):
65     json = get_page(offset)
66     for item in get_images(json):
67         print(item)
68         save_image(item)
69 
70 
71 if __name__ == __main__:
72     pool = Pool()
73     groups = ([x * 20 for x in range(GROUP_START, GROUP_END + 1)])
74     pool.map(main, groups)
75     pool.close()
76     pool.join()

 




以上是关于爬虫实战2:爬出头条网美图的主要内容,如果未能解决你的问题,请参考以下文章

爬虫:分析Ajax请求抓取今日头条街拍美图

头条 街拍

头条 街拍

芝麻HTTP:分析Ajax爬取今日头条街拍美图

Python的几个爬虫代码整理(网易云微信淘宝今日头条)

爬虫实战Ajax解析续-今日头条图片下载