python 爬虫 计算博客园浏览量,刷浏览量

Posted 玉树临风獾獾欢

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了python 爬虫 计算博客园浏览量,刷浏览量相关的知识,希望对你有一定的参考价值。

首先进入博客园的管理页面:

通过观察A-JAX请求,发现博客的分类(categories)是一个json格式的数据即:

                                  

于是先爬取categories。通过各个分类的页面进而爬去地址,浏览量,打开一个category的页面:

检查网页

   

这样就得到了每个博客的地址和浏览量了

上代码,其他一些问题在代码中给出注释:

import time

import requests
import json
import re
from selenium import webdriver

url = \'https://i.cnblogs.com/categories\'
base_url = \'https://i.cnblogs.com/posts?\'
views = 0
url_list = []
headers = {
    #在headers中添加上自己的cookie
    \'cookie\': \'你自己的cookie\',\'user-agent\': \'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36\',
    \'upgrade-insecure-requests\': \'1\'
}
pattern1 = re.compile(\'<td>发布</td>.*?\\d.*?(\\d{1,})\', re.S)        #正则表达式 #这边尤其要注意到浏览量有可能不只是一个位数,还可能是二位数三位数,所以写正则的时候应该是(\\d{1,})
pattern2 = re.compile(\'<td class="post-title"><a href="(.*?)"\', re.S)    #正则表达式
response = requests.get(url=url, headers=headers)
html = response.text
data = json.loads(html)            #通过json.loads把数据转化成字典格式
categories = (i[\'CategoryId\'] for i in data)
for category in categories:
    cate_url = base_url + \'categoryid=\' + str(category)  #build每个category的地址
    headers[\'referer\'] = cate_url
    response = requests.get(cate_url, headers=headers)
    html = response.text
    results1 = re.findall(pattern1, html)    #浏览量的findall结果
    results2 = re.findall(pattern2, html)    #网页地址的findall结果
    if results1:
        for result1 in results1:
            views = views + int(result1)    #通过int()内置函数,把string格式的数字转化为int格式的数值,计算浏览量 
        for result2 in results2:
            url_list.append(\'https://\' + result2)    #build地址

print(\'总浏览量为:\', views)
print(url_list)
options = webdriver.ChromeOptions()    #通过selenium 模块中的webdriver 模拟一个chrome浏览器
#设置中文
options.add_argument(\'lang=zh_CN.UTF-8\')
#更换头部
options.add_argument(\'user-agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36"\')
#https://www.cnblogs.com/francischeng/p/9437809.html
#www.cnblogs.com/francischeng/p/9437809.com\'
driver = webdriver.Chrome(chrome_options=options)
while True:
    for url in url_list:
        driver.delete_all_cookies()
        driver.get(url)
        time.sleep(2)    #睡眠两秒

总结。

1.主要遇到的错误是,正则表达式中爬取浏览量的问题,刚开始只写了(\\d),也就是一个数字。然而浏览量可能是二位数三位数,所以应该改成(\\d{1,})这样可以爬取多位的数字。

2.通过单纯的模拟浏览器并不能刷浏览量,可能一个ip一天只能增加几个浏览量

3 因为每个ip只能刷固定的浏览量,所以想用代理池得到ip无限刷浏览量

 

以上是关于python 爬虫 计算博客园浏览量,刷浏览量的主要内容,如果未能解决你的问题,请参考以下文章

Python抓拍博客园文章,并存入数据库

python实现的刷博客浏览量(有待改进)

简易nodejs爬虫抓取博客园指定用户的文章及浏览量

Python 自动刷博客浏览量

python爬取疫情数据

python爬虫:两种方法模拟登录博客园