爬虫之豆瓣图书评论词云

Posted lsm-boke

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了爬虫之豆瓣图书评论词云相关的知识,希望对你有一定的参考价值。

from urllib import request
from bs4 import BeautifulSoup as bs
import re
import codecs
import jieba  #分词包
import numpy    #numpy计算包
import pandas as pd #分词用到
import matplotlib.pyplot as plt  #绘图包
import matplotlib
matplotlib.rcParams[figure.figsize] = (10.0,5.0)
from wordcloud import WordCloud #词云包

#爬取豆瓣最受关注图书榜
resp = request.urlopen(https://book.douban.com/chart?subcat=I)
html_data = resp.read().decode(utf-8)

#转化为BeautifulSoup对象
soup = bs(html_data,html.parser)

#搜索最受关注的图书列表
topchart_book =soup.find_all(ul,class_=chart-dashed-list)

#搜索列表中所有图书
topchart_book_list = topchart_book[0].find_all(li,class_=media clearfix)

#新建数组用于存放后续的数据
topchart_list = []

#遍历图书馆列表,从中过滤出我们所需的信息
for item in topchart_book_list:
    #新建字典用于存放我们的图书信息,之后可用class来存储
    topchart_dict = {}

    #搜索到具体信息的位置
    book_item = item.find(a,class_=fleft)

    #得到图书ID
    topchart_dict[id] = book_item[href].split(/)[4]   

    #得到图书名称
    topchart_dict[name] = book_item.getText().replace(	,‘‘).replace(
,‘‘).replace( ,‘‘)  #图书名字
    
    #将图书信息加入到数组中
    topchart_list.append(topchart_dict)
# print(topchart_list)

#拼接出图书对应的详情页
requrl = https://book.douban.com/subject/+topchart_list[0][id]+/comments/hot+?+p-1

#爬取热门第一页中的评论信息
resp = request.urlopen(requrl)
html_data = resp.read().decode(utf-8)
soup = bs(html_data,html.parser)

#搜索到评论所在div
comment_div_lits = soup.find_all(div,class_=comment)

#新建数组用于存放评论信息
eachCommentList = []

for item in comment_div_lits:
    if item.find_all(p)[0].string is not None:
        eachCommentList.append(item.find_all(p)[0].string)
# print(eachCommentList)

#为了方便进行数据进行清洗,我们将列表中的数据放在一个字符串数组中
commits = ‘‘
for k in range(len(eachCommentList)):
    commits = commits + (str(eachCommentList[k])).strip()

# print(commits)
# exit()

#可以看到所有的评论已经变成一个字符串了,但我们发现评论中还有不少标点符号等
#这些符号对我们进行词频统计根本就没有用,因此将他们清除,所用的方法是正则表达式
pattern = re.compile(r[u4e00-u9fa5]+)
filterdata = re.findall(pattern,commits)
cleaned_comments = ‘‘.join(filterdata)
# print(‘评论数组‘)
# print(eachCommentList)
# print(‘评论字符串‘)
# print(commits)
# print(‘去除标点符号的评论‘)
# print(cleaned_comments)
# exit()

#在这里使用的是结巴分词,如果没有安装结巴分词,可以在控制台用 pip install jieba安装
segment = jieba.lcut(cleaned_comments)
# print(segment)
# exit()
#可以使用pandas库将分词转化成dataframe格式,head()方法只查看前五项内容
words_df = pd.DataFrame({word:segment})
# print(words_df)
# print(words_df.head())
# exit()

#可以看到我们的数据中有“我”、“很”等虚词(停用词)
#而这些词在任何场景中都是高频时,并且没有实际含义,所以我们要对他们进行清除
#把停用词放在一个stopwords.txt文件中,将我们的数据与停用词进行对比即可

stopwords=pd.read_csv("stopwords.txt",index_col=False,quoting=3,sep="	",names=[stopword],encoding=gbk)
# print(stopwords)
# exit()
words_df=words_df[~words_df.word.isin(stopwords.stopword)]
# print(words_df.head())
# exit()

#接下来进行词频统计
words_stat=words_df.groupby(by=[word])[word].agg([count])
# print(words_stat.head())

#对统计结果进行排序
words_stat=words_stat.reset_index().sort_values(by=["count"],ascending=False)
# print(words_stat.head())

#词云展示
wordcloud = WordCloud(font_path="simhei.ttf",background_color="white",max_font_size=80)    #指定字体类型、字体大小、背景颜色
word_frequence = {x[0]:x[1] for x in words_stat.head(1000).values}
# print(word_frequence)
wordcloud = wordcloud.fit_words(word_frequence)
# print(wordcloud)
# exit()

#matplotlib包对图片进行绘制,绘制成功后,返回一个AxesImage对象,要在窗口上显示这个对象,我们可以用show()函数进行
#在某些练习环境下可以省略show()函数,也能自动显示出来
plt.imshow(wordcloud)
plt.axis("off")
plt.show()

 

以上是关于爬虫之豆瓣图书评论词云的主要内容,如果未能解决你的问题,请参考以下文章

爬虫之豆瓣词云

用Python爬虫对豆瓣《敦刻尔克》影评进行词云展示

Python爬虫——对豆瓣图书各模块评论数与评分图形化分析

爬虫系列之豆瓣图书排行

爬虫之爬取豆瓣热门图书的名字

Python项目之我的第一个爬虫----爬取豆瓣图书网,统计图书数量