python10分钟教你用python如何正确把妹
Posted 短短的路走走停停
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了python10分钟教你用python如何正确把妹相关的知识,希望对你有一定的参考价值。
前言
今天没妹子约,刚好研究一下。如何用神奇的python打造一个把妹神器吧。看完这个,你们就能走向人生巅峰,迎娶白富美啦。
我知道你们想看看效果
image当然啦,这只是测试版的效果,真正的版本可比这个厉害多啦。不过作为一个直男,另一个男的给小编发这个测试感觉还是有点怪怪的哈。
文:吉柏言
暑假来了,各位又不得不和男女朋友暂时分开2个月了!!长达两个月的时间里不能相见,你可知我多想你啊,想知道你的城市下雨了吗,想知道你带伞了吗,想知道你长什么样,想知道你叫啥,咳咳,单身汪小编表示情绪稳定。
没关系,虽然不能见面,但是云关怀还是要到的嘛,每天查一查你那里的天气如何,送上作为男朋友的关切问候,再配上一张爱你的图片,噫~~。但是作为绝地鸡王那必须每晚吃鸡呀,早上醒来忘了打卡怎么办?? 能让机器干的活我们何必自己动手呢?当然可以走一波python大法好啦!
今天的代码我们要做得就是定点打卡,每天向亲爱的女票送去温暖的祝福~~,单身汪小编表示情绪稳定。
环境准备
首先,安装我们需要的库:
1import requests
2from bs4 import BeautifulSoup
3from email.mime.image import MIMEImage
4from email.mime.multipart import MIMEMultipart
5from email.mime.text import MIMEText
6from email.header import Header
7import smtplib
8import os
我们用requests + bs4 库进行爬取当日的天气状况以及我们需要的图片,用email库和smtplib库来发邮件,当中我们还需要os库对其他文件进行操作。
开始搞事
首先爬取天气状况和图片资源,我选择的是对中国气象台和豆瓣上一位名为名为“狼魄乾坤”的网友的豆瓣相册进行爬取,首先本着盗亦有道的原则,先查看robots协议。
image image很好,中央气象站没有robots协议,豆瓣也没有对相册加以限制,那么我们可以放心大胆地爬取了。
进入网站,查找一下她所在的城市,本汪没有女票就以自己所在的城市为例子了。
http://www.nmc.cn/publish/forecast/AHB/wuhan.html 。分析一下这个地址,发现对于城市的分类命名规则是A+省份简写如湖北(HB)以及城市拼音,对于一些比较模糊的省份简写小编附在下图的代码中:
1def main():
2# print("河北HE 内蒙古NM 陕西SN 黑龙江HL 河南HA")
3# province = input("input the province,the big alpha for short:")
4# city = input("input the city you wanna search plz:")
5 province = "HB"
6 city = "wuhan"
7 url = "http://www.nmc.cn/publish/forecast/A" + province + "/" + city + ".html"
8 html = getHTMLText(url)
9 url = "https://www.douban.com/photos/album/157693223/"
10 image = getHTMLText(url)
请忽略小编的辣鸡英文。
getHTMLText(url)是自定义方法,为的是获取网页的源代码,返回值为包含整个源代码的字符串:
1def getHTMLText(url):
2 try:
3 r = requests.get(url)
4 print(r.raise_for_status)
5 r.encoding = r.apparent_encoding
6 return r.text
7 except:
8 return ""
我们用requests.get(url)向网站提出爬取申请,用raise_for_status查看状态码,如果为200则说明爬取成功,然后我们用apparent_encoding替换掉encoding,这是让程序自己识别编码方式,保证返回的不是乱码。倘若爬取过程没有出错,就把爬下来的新鲜的天气信息素材返回给变量html。用同样的方法,我们获取新鲜的图片库的素材也用同样的方法,返回给变量image。
1 imagLink = []
2 whetherInfo = parserHTMLWeather(html)
3 name = 1
4 for image in imagLink:
5 print(image)
6 for image in imagLink:
7 downloadPicture(image,name)
8 name += 1
回到main方法,我们要声明一个imagLink的列表,用来存放每个图库中每个图的地址,whetherInfo用来存储解析后的html的信息。打印image确定地址返回无误,因为在图库的源码中有豆瓣自己的大图地址和图片的地址,我们需要的是图片地址,确定无误后就可以逐个进行下载图片资源了。
先来看解析天气信息的parserHTMLWeather方法:
1def parserHTMLWeather(html):
2 try:
3 dirt = {}
4 soup = BeautifulSoup(html,"html.parser")
5 place = soup.find(name = "head").find("title")
6 dirt["place"] = str(place.string).split("-")[0]
7 AnnoceTime = soup.find(name = \'div\', attrs = {"class":"btitle"}).find("span")
8 dirt["AnnoceTime"] = str(AnnoceTime.string)
9 Everyday = AnnoceTime.find_parent().find_next_sibling().find_all(name = "div",class_ = "detail")
10 for eachday in Everyday:
11 info = eachday.find(name = "div",class_ = "day")
12 thisDay = {}
13 date = str(info.find(name = "div",class_ = "date").string)
14 week = str(info.find(name = "div",class_ = "week").string)
15 wdesc = str(info.find(name = "div",class_ = "wdesc").string)
16 temp = str(info.find(name = "div",class_ = "temp").string)
17 direct = str(info.find(name = "div",class_ = "direct").string)
18 wind = str(info.find(name = "div",class_ = "wind").string)
19
20 thisDay["date"] = date
21 thisDay["week"] = week
22 thisDay["wdesc"] = wdesc
23 thisDay["temp"] = temp
24 thisDay["direct"] = direct
25 thisDay["wind"] = wind
26 dirt[thisDay["date"]] = thisDay
27
28 return dirt
29 except:
30 return {}
首先先声明dirt为一个字典,然后把html用beautifulSoup库对其进行解析,解析后的soup对象可以调用它的find方法和find_all方法开始寻找我们需要的信息所对应的标签。至于哪个信息对应哪个标签,可以在浏览器中用ctrl + F的快捷键调出搜索框。获取到我们需要的信息后,我们可以把它进行加工保存在每天的thisDay字典里,然后再把7天的thisDay字典加入dirt字典里,最后返回dirt字典。具体的加工方法就是用split方法切片、提取。当然也可以选择正则表达式,需要额外再引用re库。
然后是解析图片:
1def parserHTMLPicture(imag,imagLink):
2 try:
3 soup = BeautifulSoup(imag,"html.parser")
4# next_url = soup.find(name = \'link\',rel = \'next\')[\'href\']
5# next_page = getHTMLText(next_url)
6 imagAddress = soup.find(name=\'div\',class_ = \'photolst clearfix\').find_all(name = \'img\')
7 for image in imagAddress:
8 imagLink.append(image[\'src\'])
9
10 return imagLink
11 except:
12 return []
解析图片我们只需要把图片的地址获取到imagLink列表中即可。然后我们遍历这个列表,并且下载这些图片:
1def downloadPicture(url,name):
2 root = \'C:\\\\Users\\\\10990\\\\Pictures\\\\\'#这里填保存的路径
3 path = root + str(name) + \'.jpg\'
4 try:
5 if not os.path.exists(root):
6 os.mkdir(root)
7 if not os.path.exists(path):
8 r = requests.get(url)
9 with open(path,\'wb\') as f:
10 f.write(r.content)
11 f.close()
12 print("文件保存成功")
13 else:
14 print(10分钟教你用Python做个打飞机小游戏超详细教程
10分钟教你用Python玩转微信之抓取好友个性签名制作词云
10分钟教你用python动画演示深度优先算法搜寻逃出迷宫的路径