爬虫的两大重要文件:robots.txt和sitemap.xml

Posted herosunly

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了爬虫的两大重要文件:robots.txt和sitemap.xml相关的知识,希望对你有一定的参考价值。

文章目录

1. 爬虫和搜索引擎的基本原理

  网络爬虫本质上是互联网机器人,它能够自动完成对网页数据的抓取。从体量和规模上来说,绝大多数的网络爬虫是由搜索引擎系统构建而成的。那么,搜索引擎的基本原理是什么呢?

  当我们在使用谷歌进行关键词搜索的时候,很多人会认为我们是在搜索整个互联网的网页。其实我们真实在搜索的是谷歌的网页索引库

  搜索引擎爬取数据的具体步骤为:

  第一步搜索引擎通过爬虫收集网页数据,具体来说搜索引擎先抓取少量网页然后再跟踪这些网页上的链接,接着抓取这些链接指向的网页。再跟踪这些网页上的所有链接,并抓取它们链接到的网页,以此类推。好比我们经常说的 “顺藤摸瓜”。本质上源于网页之间存在互相链接的关系。

  思考:如何收集孤立网页?

以上是关于爬虫的两大重要文件:robots.txt和sitemap.xml的主要内容,如果未能解决你的问题,请参考以下文章

网站的robots.txt文件

爬虫协议robots

robots.txt 协议

爬虫之网页下载

Robots.txt详解

Python3 爬虫06_robots.txt查看网站爬取限制情况