搭建ip代理池思想
Posted fudou
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了搭建ip代理池思想相关的知识,希望对你有一定的参考价值。
一直在想ip代理池是如何搭建的,今天无意看到一个开源项目,从中找到答案,但是还是不知道那些代理站的ip是从哪获取到的
引用:https://github.com/jhao104/proxy_pool
## 代理池介绍 本项目通过爬虫方式持续抓取代理网站公布的免费代理IP,实时校验,维护部分可以使用的代理,并通过api的形式提供外部使用。 ### 1、问题 构建一个代理IP池,可能有下面这些问题: * 代理IP从何而来? 许多刚接触爬虫的,都试过去西刺、快代理之类有免费代理的网站去抓些免费代理,还是有一些代理能用。 当然,如果你有更好的代理接口也可以自己接入。 免费代理的采集也很简单,无非就是:`访问页面`` —> `正则/xpath提取` —> `保存` * 如何保证代理质量? 可以肯定免费的代理IP大部分都是不能用的,不然别人还提供付费接口干嘛(不过事实上很多代理商的付费IP也不稳定,也有很多是不能用)。 所以采集回来的代理IP不能直接使用,检测的办法也很简单:可以写个程序不断的用代理访问一个稳定的网站,看是否可以正常访问即可。 这个过程可以使用多线/进程或异步的方式,因为检测代理是个很慢的过程。 * 采集回来的代理如何存储? 这里不得不推荐一个国人开发的高性能支持多种数据结构的NoSQL数据库[SSDB](http://ssdb.io/docs/zh_cn/),用于替代Redis。支持队列、hash、set、k-v对,支持T级别数据。是做分布式爬虫很好中间存储工具。 * 如何让爬虫更方便的用到这些代理? 答案肯定是做成服务咯,Python有这么多的web框架,随便拿一个来写个api供爬虫调用。这样代理和爬虫架构分离有很多好处, 比如:当爬虫完全不用考虑如何校验代理,如何保证拿到的代理可用,这些都由代理池来完成。这样只需要安静的码爬虫代码就行啦。 ### 2、代理池设计 代理池由四部分组成: * ProxyGetter: 代理获取接口,目前有5个免费代理源,每调用一次就会抓取这个5个网站的最新代理放入DB,支持自定义扩展额外的代理获取接口; * DB: 用于存放代理IP,目前支持SSDB和Redis(推荐SSDB)。至于为什么选择SSDB,大家可以参考这篇[文章](https://www.sdk.cn/news/2684),个人觉得SSDB是个不错的Redis替代方案,如果你没有用过SSDB,安装起来也很简单,可以参考[这里](https://github.com/jhao104/memory-notes/blob/master/SSDB/SSDB%E5%AE%89%E8%A3%85%E9%85%8D%E7%BD%AE%E8%AE%B0%E5%BD%95.md); * Schedule: 计划任务,定时去检测DB中的代理可用性,删除不可用的代理。同时也会主动通过ProxyGetter去获取最新代理放入DB; * ProxyApi: 代理池的外部接口,由[Flask](http://flask.pocoo.org/)实现,功能是给爬虫提供与代理池交互的接口。
以上是关于搭建ip代理池思想的主要内容,如果未能解决你的问题,请参考以下文章
Python爬虫伪装,请求头User-Agent池,和代理IP池搭建使用