Python爬虫中文小说网点查找小说并且保存到txt(含中文乱码处理方法)

Posted 云朵的冥想

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Python爬虫中文小说网点查找小说并且保存到txt(含中文乱码处理方法)相关的知识,希望对你有一定的参考价值。

从某些网站看小说的时候经常出现垃圾广告,一气之下写个爬虫,把小说链接抓取下来保存到txt,用requests_html全部搞定,代码简单,容易上手.

中间遇到最大的问题就是编码问题,第一抓取下来的小说内容保持到txt时出现乱码,第二url编码问题,第三UnicodeEncodeError

先贴源代码,后边再把思路还有遇到的问题详细说明。

 

from requests_html import HTMLSession as hs

def get_story(url):
    global f
    session=hs()
    r=session.get(url,headers=headers)
    r.html.encoding=\'GBK\'
    title=list(r.html.find(\'title\'))[0].text#获取小说标题
    nr=list(r.html.find(\'.nr_nr\'))[0].text#获取小说内容
    nextpage=list(r.html.find(\'#pb_next\'))[0].absolute_links#获取下一章节绝对链接
    nextpage=list(nextpage)[0]
    if(nr[0:10]=="_Middle();"):
        nr=nr[11:]
    if(nr[-14:]==\'本章未完,点击下一页继续阅读\'):
        nr=nr[:-15]
    print(title,r.url)
    f.write(title)
    f.write(\'\\n\\n\')
    f.write(nr)
    f.write(\'\\n\\n\')
    return nextpage


def search_story():
    global BOOKURL
    global BOOKNAME
    haveno=[]
    booklist=[]
    bookname=input("请输入要查找的小说名:\\n")
    session=hs()
    payload={\'searchtype\':\'articlename\',\'searchkey\':bookname.encode(\'GBK\'),\'t_btnsearch\':\'\'}
    r=session.get(url,headers=headers,params=payload)
    haveno=list(r.html.find(\'.havno\'))#haveno有值,则查找结果如果为空
    booklist=list(r.html.find(\'.list-item\'))#booklist有值,则有多本查找结果
    while(True):
        if(haveno!=[] and booklist==[]):
            print(\'Sorry~!暂时没有搜索到您需要的内容!请重新输入\')
            search_story()
            break
        elif(haveno==[] and booklist!=[]):
            print("查找到{}本小说".format(len(booklist)))
            for book in booklist:
                print(book.text,book.absolute_links)
            search_story()
            break
        else:
            print("查找到结果,小说链接:",r.url)
            BOOKURL=r.url
            BOOKNAME=bookname
            break


global BOOKURL
global BOOKNAME
url=\'http://m.50zw.net/modules/article/waps.php\'
headers = {
    \'User-Agent\': \'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.170 Safari/537.36 OPR/53.0.2907.99\'
}

search_story()
chapterurl=BOOKURL.replace("book","chapters")
session=hs()
r=session.get(chapterurl,headers=headers)
ch1url=list(r.html.find(\'.even\'))[0].absolute_links#获取第一章节绝对链接
ch1url=list(ch1url)[0]
global f
f=open(BOOKNAME+\'.txt\', \'a\',encoding=\'gb18030\',errors=\'ignore\')
print("开始下载,每一章节都需要爬到,速度快不了,请等候。。。。\\n")
nextpage=get_story(ch1url)
while(nextpage!=BOOKURL):
    nextpage=get_story(nextpage)
f.close
    

 

爬虫思路及遇到的问题分析如下:

先查找小说,并且把小说链接抓取下来,以网站http://m.50zw.net/modules/article/waps.php为例,首先在浏览器中打开链接并且右键点检查,选择Network标签,我用的是chrome浏览器,按F1设置把Network底下的Preserve log勾选上,方便接下来查找log,以搜索‘帝后世无双’为例,搜索到结果后直接跳到了此本小说的url:http://m.50zw.net/book_86004/

 

查看到请求方式是GET,Request URL是 http://m.50zw.net/modules/article/waps.php?searchtype=articlename&searchkey=%B5%DB%BA%F3%CA%C0%CE%DE%CB%AB&t_btnsearch=

然后分析出请求参数有三个,searchtype先固定用图书名来查找,而searchkey我们输入的是”敌后世无双“,url encoding成了%B5%DB%BA%F3%CA%C0%CE%DE%CB%AB,我们在python ide里边分别输入:

"敌后世无双".encode(\'GBK\'):b\'\\xb5\\xd0\\xba\\xf3\\xca\\xc0\\xce\\xde\\xcb\\xab\'

"敌后世无双".encode(\'utf-8\'):b\'\\xe6\\x95\\x8c\\xe5\\x90\\x8e\\xe4\\xb8\\x96\\xe6\\x97\\xa0\\xe5\\x8f\\x8c\'

对照输出结果我们知道这里url编码采用的是GBK

接下来我们用代码来验证我们分析的结果

from requests_html import HTMLSession as hs
url=\'http://m.50zw.net/modules/article/waps.php\'
payload={\'searchtype\':\'articlename\',\'searchkey\':\'帝后世无双\',\'t_btnsearch\':\'\'}
headers = {
    \'User-Agent\': \'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.170 Safari/537.36 OPR/53.0.2907.99\'
}
session=hs()
r=session.get(url,headers=headers,params=payload)
print(r.url)

 

 运行结果:

http://m.50zw.net/modules/article/waps.php?searchtype=articlename&searchkey=%E5%B8%9D%E5%90%8E%E4%B8%96%E6%97%A0%E5%8F%8C&t_btnsearch=

比较得到的url跟我们刚才手动输入后得到的url有出入,代码里边如果没有指定编码格式的话了这里url编码默认是urf-8,因为编码问题我们没有得到我们想要的结果,那接下来我们修改代码指定编码试试

payload={\'searchtype\':\'articlename\',\'searchkey\':\'帝后世无双\'.encode(\'GBK\'),\'t_btnsearch\':\'\'}

 

这回运行结果得到我们想要的url:

 http://m.50zw.net/book_86004/

好,成功了!!!

那接下来我们要获取第一章节的链接,中间用到了requests_html来抓取绝对链接

bookurl=\'http://m.50zw.net/book_86004/\'
chapterurl=bookurl.replace("book","chapters")
session=hs()
r=session.get(chapterurl,headers=headers)
ch1url=list(r.html.find(\'.even\'))[0].absolute_links
ch1url=list(ch1url)[0]
print(ch1url)

 

 运行结果:

http://m.50zw.net/book_86004/26127777.html

成功取得第一章节链接

接下来我们开始获取小说内容并且获取下一章链接直到把整本小说下载下来为止,

在这个部分遇到UnicodeEncodeError: \'gbk\' codec can\'t encode character \'\\xa0\' in position 46:illegal multibyte sequence,这个问题最终在用open函数打开txt时加两个参数解决encoding=\'gb18030\',errors=\'ignore\'.

在之前也用过另外一种方案,就是把u\'\\xa0\'替换成跟它等效的u\' \',虽然解决了\'\\xa0\'的error,可是后来又出现了’\\xb0\'的error,总不能出现一个类似的rror就修改代码替换一次,所以这个方案被放弃掉.

 

session=hs()
r=session.get(ch1url,headers=headers)
title=list(r.html.find(\'title\'))[0].text
nr=list(r.html.find(\'.nr_nr\'))[0].text
##nr=nr.replace(u\'\\xa0\',u\' \')
nextpage=list(r.html.find(\'#pb_next\'))[0].absolute_links
nextpage=list(nextpage)[0]
if(nr[0:10]=="_Middle();"):
    nr=nr[11:]
if(nr[-14:]==\'本章未完,点击下一页继续阅读\'):
    nr=nr[:-15]
print(title,r.url)
print(nextpage)
f=open(\'帝后世无双.txt\', \'a\',encoding=\'gb18030\',errors=\'ignore\')
f.write(title)
f.write(\'\\n\\n\')
f.write(nr)
f.write(\'\\n\\n\')

 

以上是关于Python爬虫中文小说网点查找小说并且保存到txt(含中文乱码处理方法)的主要内容,如果未能解决你的问题,请参考以下文章

Python爬虫:爬取小说并存储到数据库

从“顶点小说”下载完整小说——python爬虫

python爬虫案例——小说

Python 爬虫-抓取小说《鬼吹灯之精绝古城》

Python爬虫编程思想(48):项目实战:抓取起点中文网的小说信息

爬虫实战:爬笔趣阁小说