小说免费看!python爬虫框架scrapy 爬取纵横网

Posted 松鼠爱吃饼干

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了小说免费看!python爬虫框架scrapy 爬取纵横网相关的知识,希望对你有一定的参考价值。



前言

文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。

PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取http://t.cn/A6Zvjdun

准备

  • python3

  • scrapy

项目创建:

cmd命令行切换到工作目录创建scrapy项目 两条命令 scarpy startproject与scrapy genspider 然后用pycharm打开项目

D:pythonwork>scrapy startproject zongheng
New Scrapy project 'zongheng', using template directory 'c:\users11573appdatalocalprogramspythonpython36libsite-packagesscrapy emplatesproject', created in:
D:pythonworkzongheng

You can start your first spider with:
cd zongheng
scrapy genspider example example.com

D:pythonwork>cd zongheng

D:pythonworkzongheng>cd zongheng

D:pythonworkzonghengzongheng>scrapy genspider xuezhong http://book.zongheng.com/chapter/189169/3431546.html
Created spider 'xuezhong' using template 'basic' in module:
zongheng.spiders.xuezhong

确定内容

首先打开网页看下我们需要爬取的内容

小说免费看!python爬虫框架scrapy 爬取纵横网


其实小说的话结构比较简单 只有三大块 卷 章节 内容

因此 items.py代码:

小说免费看!python爬虫框架scrapy 爬取纵横网


内容提取spider文件编写

还是我们先创建一个main.py文件方便我们测试代码

小说免费看!python爬虫框架scrapy 爬取纵横网


然后我们可以在spider文件中先编写

小说免费看!python爬虫框架scrapy 爬取纵横网


运行main.py看看有没有输出

发现直接整个网页的内容都可以爬取下来,说明该网页基本没有反爬机制,甚至不用我们去修改user-agent那么就直接开始吧

打开网页 F12查看元素位置 并编写xpath路径 然后编写spider文件

需要注意的是我们要对小说内容进行一定量的数据清洗,因为包含某些html标签我们需要去除


小说免费看!python爬虫框架scrapy 爬取纵横网


有时候我们会发现无法进入下个链接,那可能是被allowed_domains过滤掉了 我们修改下就可以

唉 突然发现了到第一卷的一百多章后就要VIP了 那我们就先只弄一百多章吧 不过也可以去其他网站爬取免费的 这次我们就先爬取一百多章吧

内容保存

接下来就是内容的保存了,这次就直接保存为本地txt文件就行了

首先去settings.py文件里开启 ITEM_PIPELINES

然后编写pipelines.py文件


由于选址失误导致了我们只能爬取免费的一百多章节,尴尬,不过我们可以类比运用到其他网站爬取全文免费的书籍

怎么样 使用scrapy爬取是不是很方便呢


以上是关于小说免费看!python爬虫框架scrapy 爬取纵横网的主要内容,如果未能解决你的问题,请参考以下文章

python应用:爬虫框架Scrapy系统学习第四篇——scrapy爬取笔趣阁小说

Python爬虫之Scrapy框架系列(14)——实战ZH小说爬取多页爬取

Python爬虫之Scrapy框架系列(14)——实战ZH小说爬取多页爬取

Python爬虫之Scrapy框架系列(12)——实战ZH小说的爬取来深入学习CrawlSpider

Python爬虫之Scrapy框架系列(12)——实战ZH小说的爬取来深入学习CrawlSpider

Python爬虫之Scrapy框架系列(13)——实战ZH小说爬取数据入MySql数据库