如何用PHP做网络爬虫

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了如何用PHP做网络爬虫相关的知识,希望对你有一定的参考价值。

其实用php来爬会非常方便,主要是PHP的正则表达式功能在搜集页面连接方面很方便,另外PHP的fopen、file_get_contents以及libcur的函数非常方便的下载网页内容。

具体处理方式就是建立就一个任务队列,往队列里面插入一些种子任务和可以开始爬行,爬行的过程就是循环的从队列里面提取一个URL,打开后获取连接插入队列中,进行相关的保存。队列可以使用数组实现。

当然PHP作为但线程的东西,慢慢爬还是可以,怕的就是有的URL打不开,会死在那里。
参考技术A 其实用PHP来爬会非常方便,主要是PHP的正则表达式功能在搜集页面连接方面很方便,另外PHP的fopen、file_get_contents以及libcur的函数非常方便的下载网页内容。 参考技术B 做爬虫,必须具备多线程的功能,用PHP等B/S方式,不太现实。

需要用 WINFORM 类型的 可执行程序
参考技术C 可以参考一下supesite的信息采集模块。 参考技术D 网络爬虫吗意思了。不懂

如何用php 编写网络爬虫?

    pcntl_fork或者swoole_process实现多进程并发。按照每个网页抓取耗时500ms,开200个进程,可以实现每秒400个页面的抓取。

    curl实现页面抓取,设置cookie可以实现模拟登录

    simple_html_dom 实现页面的解析和DOM处理

    如果想要模拟浏览器,可以使用casperJS。用swoole扩展封装一个服务接口给PHP层调用

  在这里有一套爬虫系统就是基于上述技术方案实现的,每天会抓取几千万个页面。

参考技术A 爬虫是python的专利啊,用PHP会有很多的坑! 参考技术B 找个curl教程学习一下

以上是关于如何用PHP做网络爬虫的主要内容,如果未能解决你的问题,请参考以下文章

如何用php 编写网络爬虫?

如何用python写出爬虫?

如何用Python做爬虫?

如何用Python做爬虫

如何用Python做爬虫

网络爬虫可以收集线下数据吗?