抓取60000+QQ空间说说做一次数据分析

Posted 波-波-

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了抓取60000+QQ空间说说做一次数据分析相关的知识,希望对你有一定的参考价值。

对于QQ空间的数据一直来是垂涎不已,老早就想偷过来研究研究,这几天闲下来便开始动手。。。

整个程序的流程为:登录-->获取cookie-->获取所有的好友qq_number-->根据所有的好友qq遍历他们的说说-->get所有好友的说说数据

程序跑了20多分钟就跑完了,,共282好友,,跑了60000+说说

有些个人隐私我抹掉了。。甭介意。嘿嘿

1.登录-->获取cookie

打开http://i.qq.com/,如下图

技术分享

但大多数时候是这样的

技术分享

我们这里使用账号密码登录,为了方便使用selenium自动化神器(关于selenium的用法可以参考https://my.oschina.net/u/3264690/blog/899229,这里不做过多阐述)

QQ账号,QQ密码存储在userinfo.ini文件中,然后用configparser将其读取出来

技术分享

读取的代码如下

configparser是一个读取配置文件的库,这里读取的格式为get(‘[配置文件中括号里的值]‘,‘相对应的key值’)

import configparser
config = configparser.ConfigParser(allow_no_value=False)
config.read(‘userinfo.ini‘)
self.__username =config.get(‘qq_info‘,‘qq_number‘)
self.__password=config.get(‘qq_info‘,‘qq_password‘)

用户信息读取出来后就可以登录了

有些盆友用selenium的时候,可能会发现有些元素定位不到,这是因为有些网页套了一个iFrame

selenium根据id定位到该iframe

self.web.switch_to_frame(‘login_frame‘)

技术分享

自动登录且获取cookie的代码

    def login(self):
        self.web.switch_to_frame(‘login_frame‘)
        log=self.web.find_element_by_id("switcher_plogin")
        log.click()
        time.sleep(1)
        username=self.web.find_element_by_id(‘u‘)
        username.send_keys(self.__username)
        ps=self.web.find_element_by_id(‘p‘)
        ps.send_keys(self.__password)
        btn=self.web.find_element_by_id(‘login_button‘)
        time.sleep(1)
        btn.click()
        time.sleep(2)
        self.web.get(‘https://user.qzone.qq.com/{}‘.format(self.__username))
        cookie=‘‘
        for elem in self.web.get_cookies():
            cookie+=elem["name"]+"="+ elem["value"]+";"
        self.cookies=cookie
        self.get_g_tk()
        self.headers[‘Cookie‘]=self.cookies
        self.web.quit()
        

2.获取所有好友的QQ_number

研究好久后发现在QQ空间主页中权限设置页面中,点击仅限QQ好友,会有下面这样的页面出来

技术分享

按F12后研究js文件发现有这样一个文件

技术分享

这个js文件里有好友的qq_number

于是请求这个文件得到qq_number

    def get_frends_url(self):
        url=‘https://h5.qzone.qq.com/proxy/domain/base.qzone.qq.com/cgi-bin/right/get_entryuinlist.cgi?‘
        params = {"uin": self.__username,
              "fupdate": 1,
              "action": 1,
              "g_tk": self.g_tk}
        url = url + parse.urlencode(params)
        return url

    def get_frends_num(self):
        t=True
        offset=0
        url=self.get_frends_url()
        while(t):
            url_=url+‘&offset=‘+str(offset)
            page=self.req.get(url=url_,headers=self.headers)
            if "\"uinlist\":[]" in page.text:
                t=False
            else:

                if not os.path.exists("./frends/"):
                    os.mkdir("frends/")
                with open(‘./frends/‘+str(offset)+‘.json‘,‘w‘,encoding=‘utf-8‘) as w:
                    w.write(page.text)
                offset += 50

 

这里有一个函数self.g_tk()它返回一个加密的p_skey , 在这个js文件中qzfl_v8_2.1.61.js,有这样一段代码

  QZFL.pluginsDefine.getACSRFToken = function(url) {
    url = QZFL.util.URI(url);
    var skey;
    if (url) {
      if (url.host && url.host.indexOf("qzone.qq.com") > 0) {
        try {
          skey = parent.QZFL.cookie.get("p_skey");
        } catch (err) {
          skey = QZFL.cookie.get("p_skey");
        }
      } else {
        if (url.host && url.host.indexOf("qq.com") > 0) {
          skey = QZFL.cookie.get("skey");
        }
      }
    }
    if (!skey) {
      skey = QZFL.cookie.get("p_skey") || (QZFL.cookie.get("skey") || (QZFL.cookie.get("rv2") || ""));
    }
    return arguments.callee._DJB(skey);
  };
  QZFL.pluginsDefine.getACSRFToken._DJB = function(str) {
    var hash = 5381;
    for (var i = 0, len = str.length;i < len;++i) {
      hash += (hash << 5) + str.charCodeAt(i);
    }
    return hash & 2147483647;
  };

把它写成python版的如下

    def get_g_tk(self):
        p_skey = self.cookies[self.cookies.find(‘p_skey=‘)+7: self.cookies.find(‘;‘, self.cookies.find(‘p_skey=‘))]
        h=5381
        for i in p_skey:
            h+=(h<<5)+ord(i)
        print(‘g_tk‘,h&2147483647)
        self.g_tk=h&2147483647

因为将好友信息存储为json文件,因此需要解析文件信息

#coding:utf-8
import json
import os
def get_Frends_list():
    k = 0
    file_list=[i for i in os.listdir(‘./frends/‘) if i.endswith(‘json‘)]
    frends_list=[]
    for f in file_list:
        with open(‘./frends/{}‘.format(f),‘r‘,encoding=‘utf-8‘) as w:
            data=w.read()[95:-5]
            js=json.loads(data)
            # print(js)
            for i in js:
                k+=1
                frends_list.append(i)
    return frends_list


frends_list=get_Frends_list()
print(frends_list)

3.获取所有好友说说

与之前类似,进入好友的说说主页后发现也有这样一个js文件将所有说说以json形式显示出来

技术分享

类似的,写了获取说说的代码(经过测试,参数中的num最好写20,否则会出现未知的结果。。。)

    def get_mood_url(self):
        url=‘https://h5.qzone.qq.com/proxy/domain/taotao.qq.com/cgi-bin/emotion_cgi_msglist_v6?‘
        params = {
              "sort":0,
                  "start":0,
              "num":20,
            "cgi_host": "http://taotao.qq.com/cgi-bin/emotion_cgi_msglist_v6",
              "replynum":100,
              "callback":"_preloadCallback",
              "code_version":1,
            "inCharset": "utf-8",
            "outCharset": "utf-8",
            "notice": 0,
              "format":"jsonp",
              "need_private_comment":1,
              "g_tk": self.g_tk
              }
        url = url + parse.urlencode(params)
        return url


    def get_mood_detail(self):
        from getFrends import frends_list
        url = self.get_mood_url()
        for u in frends_list[245:]:
            t = True
            QQ_number=u[‘data‘]
            url_ = url + ‘&uin=‘ + str(QQ_number)
            pos = 0
            while (t):
                url__ = url_ + ‘&pos=‘ + str(pos)
                mood_detail = self.req.get(url=url__, headers=self.headers)
                print(QQ_number,u[‘label‘],pos)
                if "\"msglist\":null" in mood_detail.text or "\"message\":\"对不起,主人设置了保密,您没有权限查看\"" in mood_detail.text:
                    t = False
                else:
                    if not os.path.exists("./mood_detail/"):
                        os.mkdir("mood_detail/")
                    if not os.path.exists("./mood_detail/"+u[‘label‘]):
                        os.mkdir("mood_detail/"+u[‘label‘])
                    with open(‘./mood_detail/‘+u[‘label‘]+"/" +str(QQ_number)+"_"+ str(pos) + ‘.json‘, ‘w‘,encoding=‘utf-8‘) as w:
                        w.write(mood_detail.text)
                    pos += 20
            time.sleep(2)

将需要的说说数据存入数据库

#存入数据库
def dataTomysql():
    con=pymysql.connect(
        host=‘127.0.0.1‘,
        user=‘root‘,
        password="×××",
        database=‘qq_z‘,
        port=3306,
    )
    cur=con.cursor()
    sql="insert into info (qq_number,created_time,content,commentlist,source_name,cmtnum,name) values ({},{},{},{},{},{},{});"

    d=[i for i in os.listdir(‘mood_detail‘) if not i.endswith(‘.xls‘)]
    for ii in d:
        fl=[i for i in os.listdir(‘mood_detail/‘+ii) if i.endswith(‘.json‘)]
        print(‘mood_detail/‘+ii)
        k=1
        for i in fl:
            with open(‘mood_detail/‘+ii+"/"+i,‘r‘,encoding=‘latin-1‘) as w:
                s=w.read()[17:-2]
                js=json.loads(s)
                print(i)
                for s in js[‘msglist‘]:
                    m=-1
                    if not s[‘commentlist‘]:
                        s[‘commentlist‘]=list()
                    cur.execute(sql.format(int(i[:i.find(‘_‘)]),s[‘created_time‘],str(s[‘content‘]),str([(x[‘content‘],x[‘createTime2‘],x[‘name‘],x[‘uin‘]) for x in list(s[‘commentlist‘])]),str(s[‘source_name‘]),int(s[‘cmtnum‘]),str(s[‘name‘])))
                    k+=1
        con.commit()
        con.close()

将需要的说说数据存入Excel

def dataToExcel():
    d=[i for i in os.listdir(‘mood_detail‘) if not i.endswith(‘.xls‘)]
    for ii in d:
        wb=xlwt.Workbook()
        sheet=wb.add_sheet(‘sheet1‘,cell_overwrite_ok=True)
        sheet.write(0,0,‘content‘)
        sheet.write(0,1,‘createTime‘)
        sheet.write(0,2,‘commentlist‘)
        sheet.write(0,3,‘source_name‘)
        sheet.write(0,4,‘cmtnum‘)
        fl=[i for i in os.listdir(‘mood_detail/‘+ii) if i.endswith(‘.json‘)]
        print(‘mood_detail/‘+ii)
        k=1
        for i in fl:
            with open(‘mood_detail/‘+ii+"/"+i,‘r‘,encoding=‘latin-1‘) as w:
                s=w.read()[17:-2]
                js=json.loads(s)
                print(i)
                for s in js[‘msglist‘]:
                    m=-1
                    sheet.write(k,m+1,str(s[‘content‘]))
                    sheet.write(k,m+2,str(s[‘createTime‘]))
                    if not s[‘commentlist‘]:
                        s[‘commentlist‘]=list()
                    sheet.write(k,m+3,str([(x[‘content‘],x[‘createTime2‘],x[‘name‘],x[‘uin‘]) for x in list(s[‘commentlist‘])]))
                    sheet.write(k,m+4,str(s[‘source_name‘]))
                    sheet.write(k,m+5,str(s[‘cmtnum‘]))
                    k+=1
        if not os.path.exists(‘mood_detail/Excel/‘):
            os.mkdir(‘mood_detail/Excel/‘)
        try:
            wb.save(‘mood_detail/Excel/‘+ii+‘.xls‘)
        except Exception:
            print("error")

4.分析数据

24小时发布的说说数

技术分享

技术分享

大家在中午和晚上发布的说说比较多,凌晨比较少

 

 

说说最多排行top20

技术分享

 

说说最少排行top20

技术分享

 

果然,,闷骚的人发的说说比较多。。。哈哈哈

 

从2000年到2018年,说说分布如下

技术分享

技术分享

看来我的朋友们年轻的时候蛮闷骚,,随着年纪增大,,说说越来越少。。

感谢https://zhuanlan.zhihu.com/p/24656161给我的提示。。。少走了许多弯路

数据抓取速度贼快,,20分钟抓取了我所有好友(282+)60000+说说。。

项目已传到

码云 : https://git.oschina.net/nanxun/QQ_zone.git

github : https://github.com/nanxung/QQ_zone.git

朋友们,觉得有用来个star噢。。蟹蟹。。。

以上是关于抓取60000+QQ空间说说做一次数据分析的主要内容,如果未能解决你的问题,请参考以下文章

Python爬虫编程思想(103):项目实战--抓取QQ空间说说的内容

我们如何导航到一个网页,抓取数据,移动到下一页,然后再做一次?

手机qq发说说有啥好玩的代码

Java爬虫QQ空间?

怎么批量删除qq空间说说

console前端代码自动删除QQ空间我的说说