利用百度搜索结果爬取邮箱

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了利用百度搜索结果爬取邮箱相关的知识,希望对你有一定的参考价值。

帮同学做一个关于爬取教授邮箱的任务,在百度搜索中输入教授的名字+长江学者+邮箱,爬取并筛选每个教授的邮箱,最后把邮箱信息写入到Excel表中:--爬取结果争取率大概在50%-60%

大致思路如下:

先利用百度搜索关键词(不断转换关键词,效果会不一样)

利用BeautifulSoup解析到百度搜索的html内容,找到主要的部分

写正则表达式,注意要过滤掉qq邮箱、163、126、vip邮箱(学者教授根本不会使用这些邮箱,他们几乎都是使用学校edu.cn、企业邮箱、gmail之类的),这样可以提高精准率

由于正则表达式没有写好,无意把中文匹配出来了,再进一步用正则表达式把中文去除掉

发现爬取出来的结果,里面很多的新闻投稿邮箱、编辑部的邮箱,设置了过滤列表进行过滤

爬取多个邮箱,counter统计出现频数最高的,作为最终的结果,如果匹配结果只有一个,则就选它为最终的结果

最后把结果信息写回到Excel表格中

由于需要大量的检索百度搜索结果,耗时比较长

爬虫代码如下:

  1 #coding:utf-8
  2 import time
  3 import requests
  4 import urllib.parse
  5 from bs4  import BeautifulSoup as BS
  6 import re
  7 from openpyxl import load_workbook
  8 from openpyxl import Workbook
  9 from collections import Counter
 10 
 11 start_time=time.time()
 12 # 加载Excel工作表以及获取表名
 13 wb1 = load_workbook(r"C:\Users\wujian\Desktop\长江学者名单1998-2015.xlsx")
 14 sheet1 = wb1.get_sheet_by_name("汇总")
 15 # 把所有的教授名字单独取出来
 16 professors=[]
 17 for x in sheet1[‘D‘]:
 18     if x.value!=‘教授姓名‘:
 19         professors.append(str(x.value).strip())
 20 
 21 # for x in professors:
 22 #     print(x)
 23 length=len(professors)
 24 
 25 root_url=‘https://www.baidu.com/s?wd=‘
 26 headers={
 27     ‘User-Agent‘:‘Mozilla/5.0 (Windows NT 6.3; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko)‘
 28                  ‘ Chrome/48.0.2564.48 Safari/537.36‘,
 29     ‘Referer‘: ‘https://www.baidu.com:443‘
 30 }
 31 nums=[‘1‘,‘2‘,‘3‘,‘4‘,‘5‘,‘6‘,‘7‘,‘8‘,‘9‘]
 32 filterlist=[‘service‘,‘webmaster‘,‘news‘,‘new‘,‘fjptwhw‘,‘support‘,
 33             ‘cnsaiwai‘,‘PKU_NanoST‘,‘mysf‘,‘zjseu‘,‘chinayznew‘,‘kf‘,
 34             ‘admin‘,‘sp‘,‘wlwnews‘,‘anhuixinwen‘,‘xiaoyuan‘,‘xinwen‘,
 35             ‘fuwu‘,‘contrib‘,‘xmt‘,‘sinamedia‘,‘rm‘,‘m8000‘,‘hnqnw‘,
 36             ‘info‘,‘zghtbs‘,‘web‘,‘jjrbtg‘,‘zgkyb‘,‘shihappy‘,‘pic‘,
 37             ‘cnxwzx‘,‘gaoling_news‘,‘emuchnet‘,‘changjiang‘,‘leifu‘,
 38             ‘admission‘,‘office‘,‘administrator‘,‘aco‘,‘andong‘,‘baike‘,
 39             ‘bgs‘,‘bravetim‘,‘buaazhangjun‘,‘cbtql‘,‘cksp‘,‘cs‘,‘fuhuimin‘,
 40             ‘fxxsqy‘,‘jdb‘,‘jiangyue2012‘,‘jinxin‘,‘job‘,‘jsu‘,‘jubao‘,‘kefu‘,
 41             ‘kepu‘,‘kjdbcb‘,‘kjxb0731-160‘,‘master‘,‘maths‘,‘nchkdxb‘,‘newmedia‘,
 42             ‘rcb‘,‘rencaiban‘,‘rczp‘,‘renshichu‘,‘rsc‘,‘shengxch‘,‘sjing‘,‘sla_office‘,
 43             ‘swxrs‘,‘tougao‘,‘wanhoo‘,‘wbb037‘,‘Webmaster‘,‘wlwh‘,‘xcb‘,‘xiaohuzz‘,‘xwzx‘,
 44             ‘yjrddh‘,‘youthhb‘,‘yx1005‘,‘zgzxyx‘,‘zhouh‘,‘zzbgbb‘,‘zyang‘,‘zuaa‘,‘360baike‘]
 45 
 46 #邮箱正则表达式匹配
 47 pattern=re.compile(r"\b\w+([.+-]\w+)*@(?!163)(?!126)(?!qq)(?!vip)\w+([.-]\w+)*\.\w+([.-]\w+)*\b",re.M|re.I)
 48 #匹配中文汉字
 49 regexp = re.compile(r‘[^\x00-\x7f]‘)
 50 def baidu_search(word):
 51     ‘‘‘
 52     根据关键字获取查询网页
 53     ‘‘‘
 54     emails=[]
 55     res_dict={}
 56     keyword1=word+" 长江学者 邮箱"
 57     keyword2=word+" 长江学者 email"
 58     keyword3=word+" 长江学者 Email"
 59     keyword4=word+" 长江学者 E-mail"
 60     keywords=[keyword1,keyword2,keyword3,keyword4]#调整搜索的关键字
 61 
 62     # print(word)
 63     for i in range(len(keywords)):
 64         url=root_url+urllib.parse.quote(keywords[i].encode(‘utf-8‘))#url拼接
 65         # print(url)
 66         r=requests.get(url,headers=headers)
 67         soup=BS(r.text,‘html.parser‘)
 68         cont=soup.find_all(‘div‘, class_="result c-container ")
 69         # print(type(cont))#class ‘bs4.element.ResultSet‘>
 70 
 71         for k in range(len(cont)):
 72             # print("第%d个"%k)
 73             string=str(cont[k]).strip()
 74             # print(string)
 75             try:
 76                 matchObj=pattern.search(string).group()
 77                 # print(‘\t-------->‘,matchObj)
 78                 if matchObj and matchObj.strip().split(‘@‘)[0] not in filterlist:
 79                     #由于之前的邮箱正则表达式没有写好,匹配出来还有中文汉字,
 80                     #在此处去除掉中文汉字
 81                     try:
 82                         index=regexp.search(matchObj).span()[0]
 83                         matchObj=matchObj[:index]
 84                     except Exception as e:
 85                         emails.append(matchObj)
 86                     # print("emails--->",emails)
 87                     # print(len(emails))
 88             except Exception as e:
 89                 # print(e)
 90                 pass
 91             if len(emails)>7:
 92                 # print("break.....")
 93                 break
 94 
 95         if len(emails):
 96             res_dict[word]=emails
 97             # print("res_dict",res_dict)
 98             break
 99 
100     if len(res_dict)==0:#最终没有匹配到邮箱信息
101         res_dict[word]=‘Null‘
102     return res_dict
103 
104 if __name__ == "__main__":
105     resultSet={}#最终结果,存放学者名字、及其邮箱信息
106     for i in range(length):
107         res_dict=baidu_search(professors[i])
108         print(res_dict)
109         emails=res_dict[professors[i]]
110         if len(emails)>1:
111             res_email=Counter(emails).most_common(1)[0][0]#按照每个邮箱出现的频率,进行排序,频率最大的那个邮箱就是我们所要查找的邮箱
112             resultSet[professors[i]]=res_email
113         else:
114             resultSet[professors[i]]=emails[0]
115 
116     # for key in resultSet.keys():
117     #     print(key,resultSet[x])
118 
119     sheet1[‘F1‘].value=‘邮箱‘
120     # 将每一行的数据写入
121     for i in range(length):
122         professor=str(sheet1[‘D‘+str(i+2)].value).strip()
123         sheet1[‘F‘+str(i+2)].value=resultSet[professor]
124 
125     # 将最终的结果保存在excel中
126     wb1.save(r"C:\Users\wujian\Desktop\长江学者名单1998-2015.xlsx")
127     end_time=time.time()
128     print("程序共耗时:%d秒"%(end_time-start_time))

以上是关于利用百度搜索结果爬取邮箱的主要内容,如果未能解决你的问题,请参考以下文章

python利用百度翻译器,爬取需要翻译的关键字

urllib基础-利用网站结构爬取网页-百度搜索

python爬取百度搜索页面,得到内容不全,求教,why

Python如何爬取百度图片?

Request爬取网站(seo.chinaz.com)百度权重的查询结果

基于Python爬取百度返回搜索结果(标题超链接简介)代码