爬虫系列之链家的信息爬取及数据分析

Posted aaa-aaa-aaa

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了爬虫系列之链家的信息爬取及数据分析相关的知识,希望对你有一定的参考价值。

关于链家的数据爬取和分析

已经实现

 1.房屋数据爬取并下载
 2.房屋按区域分析
 3.房屋按经纪人分析
 4.前十经纪人
 5.经纪人最有可能的位置分析
 6.实现以地区划分房屋
 目前存在的问题:
 1.多线程下载的时候会出现个别文件不继续写入了(已经解决)
 2.未考虑经纪人重名问题
 3.查询中发现不是每次都能 get 到 url 的数据,具体原因可能跟header有关,或者网站反扒(已经解决,手机端的header有时候访问pc端会出现None的情况)
 4.守护线程那里应该出问题了,如果有文件储存完成,其他就不运行了(已经解决,多线程下还要有主程序运行,否则会出现问题)
 5.json.dumps(dict)方法取出的字符串类型,二进制的,decode不好用,怎么解决
  (已经解决json.dumps(content, ensure_ascii=False)保持原有的编码)
  1 # -*- coding: utf-8 -*-
  2 # @Time :2018/5/1   23:39
  3 # @Author : ELEVEN
  4 # @File : _链家_数据分析_修改.py
  5 # @Software: PyCharm
  6 
  7 import time
  8 from lxml import etree
  9 from urllib import request
 10 import threading
 11 import os
 12 import json
 13 import random
 14 
 15 ‘‘‘
 16 已经实现
 17 1.房屋数据爬取并下载
 18 2.房屋按区域分析
 19 3.房屋按经纪人分析
 20 4.前十经纪人
 21 5.经纪人最有可能的位置分析
 22 6.实现以地区划分房屋
 23 目前存在的问题:
 24 1.多线程下载的时候会出现个别文件不继续写入了(已经解决)
 25 2.未考虑经纪人重名问题
 26 3.查询中发现不是每次都能 get 到 url 的数据,具体原因可能跟header有关,或者网站反扒(已经解决,手机端的header有时候访问pc端会出现None的情况)
 27 4.守护线程那里应该出问题了,如果有文件储存完成,其他就不运行了(已经解决,多线程下还要有主程序运行,否则会出现问题)
 28 5.json.dumps(dict)方法取出的字符串类型,二进制的,decode不好用,怎么解决
 29 (已经解决json.dumps(content, ensure_ascii=False)保持原有的编码)
 30 
 31 
 32 ‘‘‘
 33 # 获取能够 xpath 匹配的 html 匹配对象
 34 def get_html(url):
 35     time.sleep(1)
 36     header = {
 37         Referer:https://bj.lianjia.com/zufang/,
 38         User-Agent:Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0
 39     }
 40     req = request.Request(url, headers = header)
 41     # 请求
 42     response = request.urlopen(req)
 43     result = response.read().decode()
 44     # 构建 HTML 匹配对象
 45     html = etree.HTML(result)
 46     return html
 47 # 主程序
 48 def main(p, url):
 49     # 加锁,写入本条数据后指针才会进行跳转
 50     lock = threading.Lock()
 51     # 获取 get_html() 函数返回的 HTML 匹配对象
 52     html = get_html(url)
 53     # 进行 xpath 初步匹配
 54     house_list = html.xpath(//ul[@id="house-lst"]/li/div[@class = "info-panel"])
 55     threading_list = []
 56     # 遍历得到的匹配列表
 57     for index, house in enumerate(house_list):
 58         content, house_address, house_dict ,broker_name = get_info(p,index, house)
 59         print(正在保存第 %d 页 第 %s 条数据...... % (p, index+1))
 60         lock.acquire()
 61         # save_info(p, str(index+1) + ‘ ‘ + content + ‘
‘)
 62         get_class_data(house_address, house_dict, broker_name)
 63         t2 = threading.Thread(target=save_info, args=(p, str(index+1) +   + content + 
))
 64         t3 = threading.Thread(target=get_class_data, args=(house_address, house_dict, broker_name))
 65         t2.setDaemon(True)  # 这个好像没有用,等老师帮助解答
 66         t2.start()
 67         t3.start()
 68         threading_list.append(t2)
 69         threading_list.append(t3)
 70         lock.release()
 71     for t in threading_list:
 72         t.join()
 73     # 这里必须的写, 这个错误得记住,必须要有主进程 ,所有线程才会都运行
 74     print(我是守护线程)
 75 # 获取分类数据,方便数据分析
 76 def get_class_data(house_address, house_dict, broker_name):
 77     # 按区域划分
 78     if house_address in address_class:
 79         address_class[house_address][num] += 1
 80         address_class[house_address][house].append(house_dict)
 81     else:
 82         address_class[house_address] =  {num: 0, house: []}
 83         address_class[house_address][num] += 1
 84         address_class[house_address][house].append(house_dict)
 85     # 按经纪人划分
 86     if broker_name in broker_class:
 87         broker_class[broker_name][num] += 1
 88         broker_class[broker_name][house].append(house_dict)
 89     else:
 90         broker_class[broker_name] =  {num: 0, house: []}
 91         broker_class[broker_name][num] += 1
 92         broker_class[broker_name][house].append(house_dict)
 93 # 获取房产信息
 94 def get_info(p,index, house):
 95     house_url = house.xpath(h2/a/@href)[0]
 96     house_html = get_html(house_url)
 97     broker_name = house_html.xpath(
 98         //div[@class="brokerInfo"]/div[@class="brokerInfoText"]/div[@class="brokerName"]/a/text())
 99     broker_phone = house_html.xpath(//div[@class="phone"]/text())
100     if broker_name != []:
101         broker_name = broker_name[0]
102         broker_phone = str(broker_phone[0].strip()) +  + str(broker_phone[1].strip())
103     else:
104         broker_name = 暂无相关经纪人!
105         broker_phone = 请直接联系客服  10109666
106     house_name = house.xpath(h2/a/text())[0]
107     house_style = house.xpath(div[@class="col-1"]/div[@class="where"]/span[@class="zone"]/span/text())[0]
108     house_size = house.xpath(div[@class="col-1"]/div[@class="where"]/span[@class="meters"]/text())[0].strip()
109     house_address = house.xpath(div[@class="col-1"]/div[@class="other"]/div[@class="con"]/a/text())[0]
110     house_price = house.xpath(div[@class="col-3"]/div[@class="price"]/span/text())[0]
111     house_dict = {
112         house_name: house_name,
113         style: house_style.strip(),
114         size: house_size,
115         address: house_address,
116         price: house_price,
117         broker_name: broker_name,
118         broker_phone: broker_phone
119     }
120     content = "名字:%(house_name)s 样式:%(style)s  大小:%(size)s  地址:%(address)s  " 121               "价格:%(price)s 经纪人:%(broker_name)s 联系电话:%(broker_phone)s " % house_dict
122     # 构建字典类型 {‘house_name’:{‘num‘:13, ‘house‘:[house_dict]}}
123     print(p, index+1, content)
124     return content,house_address,house_dict,broker_name
125 # 保存文件
126 def save_info(p, content):
127     with open(%s/%s.txt % (链家房产信息, str(p)), a, encoding=utf-8) as f:
128         f.write(content)
129 # 随机消息头, 这里修改后再用,应该是出问题了
130 # def random_agent():
131 #     header_str = ‘‘‘Mozilla/5.0 (Macintosh; U; Intel Mac OS X 10_6_8; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50#Mozilla/5.0 (Windows; U; Windows NT 6.1; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50#Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0)#Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv:2.0.1) Gecko/20100101 Firefox/4.0.1#Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/20100101 Firefox/4.0.1#Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11#Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Maxthon 2.0)#Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; TencentTraveler 4.0)#Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)#Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Trident/4.0; SE 2.X MetaSr 1.0; SE 2.X MetaSr 1.0; .NET CLR 2.0.50727; SE 2.X MetaSr 1.0)#Mozilla/5.0 (iPhone; U; CPU iPhone OS 4_3_3 like Mac OS X; en-us) AppleWebKit/533.17.9 (KHTML, like Gecko) Version/5.0.2 Mobile/8J2 Safari/6533.18.5#Mozilla/5.0 (iPod; U; CPU iPhone OS 4_3_3 like Mac OS X; en-us) AppleWebKit/533.17.9 (KHTML, like Gecko) Version/5.0.2 Mobile/8J2 Safari/6533.18.5#MQQBrowser/26 Mozilla/5.0 (Linux; U; android 2.3.7; zh-cn; MB200 Build/GRJ22; CyanogenMod-7) AppleWebKit/533.1 (KHTML, like Gecko) Version/4.0 Mobile Safari/533.1
132 #     ‘‘‘
133 #     header = header_str.split(‘#‘)
134 #     return header[random.randint(1, len(header)) - 1]
135 # 数据分析
136 def analyze_data():
137     # 查询信息内房屋总套数
138     address_sum = 0
139     # 区域
140     for key, value in address_class.items():
141         print(key, 一共, value[num], )
142         save_info(房屋分类, key+ 一共+ json.dumps(value[num])+ +
)
143         # with open(‘%s/%s.txt‘ % (‘链家房产信息‘, ‘房屋分类‘), ‘a‘, encoding=‘utf-8‘) as f:
144         #     f.write(key+ ‘一共‘+ value[‘num‘]+ ‘套‘)
145         # 每遍历到一个区域 房屋总数量变量address_sum 就将这个区域的房屋数量加上
146         address_sum += int(value[num])
147         # 遍历每个区域房屋信息
148         for item in value[house]:
149             print(item)
150             save_info(房屋分类, json.dumps(item)+
)
151             # with open(‘%s/%s.txt‘ % (‘链家房产信息‘, ‘房屋分类‘), ‘a‘, encoding=‘utf-8‘) as f:
152             #     f.write(item)
153         print(----------------------------------)
154     print(当前查询房屋一共, address_sum, )
155     save_info(房屋分类, 当前查询房屋一共+ str(address_sum)+ )
156     # 创建字典:键为 经纪人 值为 经纪人所拥有房屋数量 num
157     broker_dict = {}
158     for key, value in broker_class.items():
159         # 打印 经纪人 和 其所拥有的房屋数量
160         print(key, 一共, value[num], )
161         save_info(经纪人分类, key+ 一共+ json.dumps(value[num])+ +
)
162         # 将经纪人 和 房屋数量信息添加到 字典中
163         broker_dict[key] = value[num]
164         # 分别打印该 经纪人 下面每套房屋的信息
165         for item in value[house]:
166             print(item)
167             save_info(经纪人分类, json.dumps(item) + 
)
168         print(----------------------------------)
169     # 如果存在 ‘暂无相关经纪人!‘这种情况,那么统计的联系人数量需要减一
170     if 暂无相关经纪人! in list(broker_class.keys()):
171         # broker_sum 为经纪人 数量总数
172         broker_sum = int(len(broker_class)) - 1
173         print(broker_sum)
174         # broker_house 为 经纪人 拥有房屋总套数
175         broker_house = address_sum - int(broker_class[暂无相关经纪人!][num])
176         del broker_dict[暂无相关经纪人!]
177     else:
178         broker_sum = len(broker_class)
179         broker_house = address_sum
180     print(broker_dict)
181     # 整理出不含有 ‘暂无相关经纪人!‘ 的字典,方便下面进行数据分析
182     # if broker_dict[‘暂无相关经纪人!‘]:
183     #     del broker_dict[‘暂无相关经纪人!‘]
184 
185     print(当前查询经纪人共有, broker_sum, )
186     print(当前查询有经纪人的房屋, broker_house, )
187     # 存储前十名的列表
188     max_list = []
189     print(排序得到前十的经纪人)
190     for i in range(10):
191         # 取出手里拥有房子最多的经纪人
192         max_num = max(zip(broker_dict.values(), broker_dict.keys()))
193         # 将房子最多的联系人添加到前十的列表中
194         max_list.append(max_num)
195         # 打印,第几名,是谁
196         print(第 %d 名 % (i + 1), max_num)
197         save_info(排名, 第 %d 名 % (i + 1)+姓名: + max_num[1]+   +str(max_num[0])++
)
198         # 已经被取出的经纪人,从列表中删除掉,以免影响下一次筛选
199         del broker_dict[max_num[1]]
200         # 创建存储经纪人位置的字典,
201         broker_postion = {}
202         # 对经纪人手中的房子按照区域划分,并且存入字典中,统计各区域拥有房屋数量
203         # 房屋最多的区域就是 经纪人最有可能在的位置
204         for dict in broker_class[max_num[1]][house]:
205             # 如果此区域存在字典中,那么相应的区域数量 num + 1
206             # 如果不存在,那么将这个区域添加到字典中,数量 num + 1
207             if dict[address] in broker_postion:
208                 broker_postion[dict[address]][num] += 1
209             else:
210                 broker_postion[dict[address]] = {num: 0}
211                 broker_postion[dict[address]][num] += 1
212         # 取出经纪人按找区域分类的字典中 ,数量num最大的那个区域元组
213         postion = max(zip(broker_postion.values(), broker_postion.keys()))
214         print(最可能在的位置, postion[1])
215         save_info(排名, 最可能在的位置+ postion[1]+
)
216         # 此经纪人数据分析已经结束,字典清空释放掉,方便下次其他经纪人使用
217         broker_postion.clear()
218     # print(‘排序得到前十的经纪人‘)
219     # print(max_list)
220 
221 
222 if __name__ == "__main__":
223     # 以地址划分, 创建以 address 为键字典
224     address_class = {}
225     # 以经纪人划分, 创建以 broker 为键字典
226     broker_class = {}
227     # 加锁
228     lock = threading.Lock()
229     # 运行初始提示
230     print(   -------------可供选择的区域--------------
东城 西城 朝阳 海淀 丰台 石景山 通州 昌平 大兴 顺义
亦庄开发区 房山 门头沟 平谷 怀柔 密云 延庆 燕郊 香河)
231     option = input(请输入相应区域的拼音,默认视为选择全部:)
232     page = int(input(请输入要获取的页数:))
233     # 创建文件夹
234     if not os.path.exists(链家房产信息):
235         os.mkdir(链家房产信息)
236     # 多线程列表
237     thread_list = []
238     for p in range(1, page+1):
239         if p == 1:
240             url = https://bj.lianjia.com/zufang/%s/ % option
241         else:
242             url = https://bj.lianjia.com/zufang/%s/pg%d/ % (option, p)
243         print(----------开始打印第 %d 页信息---------- % p)
244         lock.acquire()
245         t1 = threading.Thread(target=main, args=(p,url))
246         # 设置守护线程
247         t1.setDaemon(True)
248         t1.start()
249         thread_list.append(t1)
250         lock.release()
251         print(----------打印第 %d 页信息结束---------- % p)
252     for t1 in thread_list:
253         t1.join()
254     # 执行数据分析
255     analyze_data()

代码还有很大的优化空间,python 是艺术品,需要慢慢的精雕细刻,在努力的路上!

以上是关于爬虫系列之链家的信息爬取及数据分析的主要内容,如果未能解决你的问题,请参考以下文章

Python爬虫之链家二手房数据爬取

Python爬虫项目--爬取链家热门城市新房

python爬虫:爬取链家深圳全部二手房的详细信息

爬虫练习三:爬取链家二手房信息

百度热搜数据爬取及分析

Python高级应用程序设计任务要求(主题链家二手车)