基于静态网页爬虫技术的全书网小说模拟下载器

Posted 辽北学府

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了基于静态网页爬虫技术的全书网小说模拟下载器相关的知识,希望对你有一定的参考价值。

哈哈,看名头是不是很厉害啊,其实就是小爬虫框架。什么是爬虫?不用管它,就是个小虫子。

代码运行环境在之前的推文中已经讲过可在诸葛神弩装备库查看,上链接:



好啦,重点来了,直接放代码:

 
   
   
 
  1. import requests

  2. from bs4 import BeautifulSoup

  3. import bs4

  4. from time import sleep


  5. def gethtml(url):

  6. try:

  7. r=requests.get(url,timeout=30)

  8. r.raise_for_status()

  9. r.encoding=r.apparent_encoding

  10. return r.text

  11. except:

  12. print("URL获取失败!")

  13. def gethref(ulist,html):

  14. soup=BeautifulSoup(html,'html.parser')

  15. for li in soup.find('div','clearfix dirconone').children:

  16. if isinstance(li, bs4.element.Tag):

  17. a=li('a')

  18. if len(a)>=1:

  19. for i in range(len(a)):

  20. ulist.append(a[i]['href'])

  21. return ulist

  22. def getStrong(ul):

  23. for i in range(len(ul)):

  24. try:

  25. while (i+1)%10==0:

  26. print("我累了,休息会!!!!")

  27. sleep(30)

  28. break

  29. r=requests.get(ul[i],timeout=30)

  30. r.raise_for_status()

  31. r.encoding=r.apparent_encoding

  32. except:

  33. print(i+1,"章节URL获取失败!")

  34. soup=BeautifulSoup(r.text,'html.parser')

  35. title=soup.strong.text

  36. mainContenr=soup.find('div','mainContenr').text

  37. path="D:/雪冢大大.txt"

  38. print("开始写入第",i+1,"章")

  39. with open(path,'a',encoding='utf-8') as f:

  40. f.write(title)

  41. f.write(mainContenr)

  42. f.close()

  43. print("文件西写入完毕!")

  44. def main():

  45. uinfo=[]

  46. uinto=[]

    url='http://www.quanshuwang.cn/book/171/171714' #放这!这这这!

  47. html=getHTML(url)

  48. uinto=gethref(uinfo,html)

  49. getStrong(uinto)

  50. main()

将代码粘贴到sublime Text中,整个代码唯一需要改动的就是第49行代码处的url,这个url是你要下载的小说的目录网址。这里仔细说说吧。

比如我们拿《盗墓笔记》为例吧,首先浏览器打开全书网,搜索栏搜索盗墓笔记。如你不是笨到没救的话,应该能看到如下界面:

然后点开始阅读按钮,进入下一个界面。

看上面,对,红圈里的就是你要复制的东东,把它复制下来,url=‘ 放这 ’,注意,两边的小撇别漏了。都弄完之后按“ctrl+b”运行就可以,等运行完毕,到D盘找一个叫“雪冢大大”文本文档,注意啦!下次要爬取别的之前先把这个“雪冢大大”文档删掉哈!

总之呢,代码是我写来解闷的,禁止盗取滥用。只做学术交流。

雪冢系列作品未经容许本人容许,禁止转载!

以上是关于基于静态网页爬虫技术的全书网小说模拟下载器的主要内容,如果未能解决你的问题,请参考以下文章

Python爬虫实例多进程下载金庸网小说

python动态视频下载器

python——爬取图片(shutter图片网)

爬虫抓取网页来下载小说

python爬虫之小说网站--下载小说(正则表达式)

第一个小爬虫——下书网下载小说v1