python3下scrapy爬虫(第二卷:初步抓取网页内容之直接抓取网页)

Posted 我爱在伊甸园吃苹果

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了python3下scrapy爬虫(第二卷:初步抓取网页内容之直接抓取网页)相关的知识,希望对你有一定的参考价值。

上一卷中介绍了安装过程,现在我们开始使用这个神奇的框架

跟很多博主一样我也先选择一个非常好爬取的网站作为最初案例,那么我先用屌丝必备网站http://www.shaimn.com/xinggan/作为这一卷的案例,不用想有图,有字

第一步:

创建爬虫文件:

现在切换到scrapy_test的根目录下:

我们现在创建了爬虫文件,这个网页正常情况下就可以直接抓取,不像糗事啊,天猫啊需要到SETTING里去设置对抗ROBOT cookie user-AGENT这样的反爬手段

现在开始创建代码

现在在终端切换到爬虫文件的目录中

执行命令:

scrapy crawl crawler1 --nolog

--nolog是为了隐藏日志文件时我添加的命令语句,因为这个网页过于简单,所以为了方便数据的展示,我加了这句语句,但是如果抓取复杂的网站时我建议添加,一旦出问题可以立马发现问题的所在:

现在看下结果:

 

 这样这个网页就爬了下来,但是数据内容不精准,我相信没有人会把别让人的所有网页代码拿来用,要用的是其中的数据,图片,视频,音频等内容

 

以上是关于python3下scrapy爬虫(第二卷:初步抓取网页内容之直接抓取网页)的主要内容,如果未能解决你的问题,请参考以下文章

Python3中Scrapy爬虫框架Spider的用法

Python3中Scrapy爬虫框架Spider的用法

python3下scrapy爬虫(第十三卷:scrapy+scrapy_redis+scrapyd打造分布式爬虫之配置)

python3下scrapy爬虫(第八卷:循环爬取网页多页数据)

网站爬取-案例四:知乎抓取(COOKIE登录抓取个人中心)(第二卷)

《python3网络爬虫开发实战》--Scrapy