Python_01_IP代理池_实现代理池的爬虫模块的及具体爬虫
Posted 宋泊然
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Python_01_IP代理池_实现代理池的爬虫模块的及具体爬虫相关的知识,希望对你有一定的参考价值。
目标:通过继承通用爬虫,实现多个具体爬虫,分别从各个免费代理ip网站上抓取代理ip
步骤
1.实现西刺代理,ip3366代理和快代理还有proxylistplus代理
定义一个类,继承通用爬虫类
提供urls,group_xpath和detail_xpath
2.实现66ip爬虫
定义一个类,继承通用爬虫类
提供urls,group_xpath和detail_xpath
由于ip66网页进行js+cookie反爬,需要重写父类的get_page_from_url()方法
代码:
import time import random import requests import re import js2py from core.proxy_spider.base_spider import BaseSpider from utils.http import get_request_headers """ 1. 实现西刺代理爬虫: http://www.xicidaili.com/nn/1 定义一个类,继承通用爬虫类(BasicSpider) 提供urls, group_xpath 和 detail_xpath """ class XiciSpider(BaseSpider): # 准备URL列表 urls = [‘https://www.xicidaili.com/nn/{}‘.format(i) for i in range(1, 11)] # 分组的XPATH, 用于获取包含代理IP信息的标签列表 group_xpath = ‘//*[@id="ip_list"]/tr[position()>1]‘ # 组内的XPATH, 用于提取 ip, port, area detail_xpath = { ‘ip‘:‘./td[2]/text()‘, ‘port‘:‘./td[3]/text()‘, ‘area‘:‘./td[4]/a/text()‘ } """ 2. 实现ip3366代理爬虫: http://www.ip3366.net/free/?stype=1&page=1 定义一个类,继承通用爬虫类(BasicSpider) 提供urls, group_xpath 和 detail_xpath """ class Ip3366Spider(BaseSpider): # 准备URL列表 urls = [‘http://www.ip3366.net/free/?stype={}&page={}‘.format(i, j) for i in range(1, 4, 2) for j in range(1, 8)] # # 分组的XPATH, 用于获取包含代理IP信息的标签列表 group_xpath = ‘//*[@id="list"]/table/tbody/tr‘ # 组内的XPATH, 用于提取 ip, port, area detail_xpath = { ‘ip‘:‘./td[1]/text()‘, ‘port‘:‘./td[2]/text()‘, ‘area‘:‘./td[5]/text()‘ } """ 3. 实现快代理爬虫: https://www.kuaidaili.com/free/inha/1/ 定义一个类,继承通用爬虫类(BasicSpider) 提供urls, group_xpath 和 detail_xpath """ class KaiSpider(BaseSpider): # 准备URL列表 urls = [‘https://www.kuaidaili.com/free/inha/{}/‘.format(i) for i in range(1, 6)] # # 分组的XPATH, 用于获取包含代理IP信息的标签列表 group_xpath = ‘//*[@id="list"]/table/tbody/tr‘ # 组内的XPATH, 用于提取 ip, port, area detail_xpath = { ‘ip‘:‘./td[1]/text()‘, ‘port‘:‘./td[2]/text()‘, ‘area‘:‘./td[5]/text()‘ } # 当我们两个页面访问时间间隔太短了, 就报错了; 这是一种反爬手段. def get_page_from_url(self, url): # 随机等待1,3s time.sleep(random.uniform(1, 3)) # 调用父类的方法, 发送请求, 获取响应数据 return super().get_page_from_url(url) """ 4. 实现proxylistplus代理爬虫: https://list.proxylistplus.com/Fresh-HTTP-Proxy-List-1 定义一个类,继承通用爬虫类(BasicSpider) 提供urls, group_xpath 和 detail_xpath """ class ProxylistplusSpider(BaseSpider): # 准备URL列表 urls = [‘https://list.proxylistplus.com/Fresh-HTTP-Proxy-List-{}‘.format(i) for i in range(1, 7)] # # 分组的XPATH, 用于获取包含代理IP信息的标签列表 group_xpath = ‘//*[@id="page"]/table[2]/tr[position()>2]‘ # 组内的XPATH, 用于提取 ip, port, area detail_xpath = { ‘ip‘:‘./td[2]/text()‘, ‘port‘:‘./td[3]/text()‘, ‘area‘:‘./td[5]/text()‘ } """ 5. 实现66ip爬虫: http://www.66ip.cn/1.html 定义一个类,继承通用爬虫类(BasicSpider) 提供urls, group_xpath 和 detail_xpath 由于66ip网页进行js + cookie反爬, 需要重写父类的get_page_from_url方法 """ class Ip66Spider(BaseSpider): # 准备URL列表 urls = [‘http://www.66ip.cn/{}.html‘.format(i) for i in range(1, 11)] # # 分组的XPATH, 用于获取包含代理IP信息的标签列表 group_xpath = ‘//*[@id="main"]/div/div[1]/table/tr[position()>1]‘ # 组内的XPATH, 用于提取 ip, port, area detail_xpath = { ‘ip‘:‘./td[1]/text()‘, ‘port‘:‘./td[2]/text()‘, ‘area‘:‘./td[3]/text()‘ } # 重写方法, 解决反爬问题 # 核心:通过加密的js,生成需要的cookie信息 ‘‘‘ 1.从响应页面中提取执行生成的真正js语句和生成真正的js函数 2.网页中通过eval执行真的的js加载页面,我们需要把eval语句替换为return把真正的js返回 3.使用js2py获取执行的js环境,使用js环境加载这个函数 4.使用这个而执行环境,执行调用,生成真正的js,赋值给一个变量 5.从真正的js中,图区我们需要的cookie信息 ‘‘‘ def get_page_from_url(self, url): headers = get_request_headers() response = requests.get(url, headers=headers) if response.status_code == 521: # 生成cookie信息, 再携带cookie发送请求 # 生成 `_ydclearance` cookie信息 # 1. 确定 _ydclearance 是从哪里来的; # 观察发现: 这个cookie信息不使用通过服务器响应设置过来的; 那么他就是通过js生成. # 2. 第一次发送请求的页面中, 有一个生成这个cookie的js; 执行这段js, 生成我们需要的cookie # 这段js是经过加密处理后的js, 真正js在 "po" 中. # 提取 `jp(107)` 调用函数的方法, 以及函数 result = re.findall(‘window.onload=setTimeout("(.+?)", 200);s*(.+?)s*</script> ‘, response.content.decode(‘GBK‘)) # print(result) # 我希望执行js时候, 返回真正要执行的js # 把 `eval("qo=eval;qo(po);")` 替换为 return po func_str = result[0][1] func_str = func_str.replace(‘eval("qo=eval;qo(po);")‘, ‘return po‘) # print(func_str) # 获取执行js的环境 context = js2py.EvalJs() # 加载(执行) func_str context.execute(func_str) # 执行这个方法, 生成我们需要的js # code = gv(50) context.execute(‘code = {};‘.format(result[0][0])) # 打印最终生成的代码 # print(context.code) cookie_str = re.findall("document.cookie=‘(.+?); ", context.code)[0] # print(cookie_str) headers[‘Cookie‘] = cookie_str response = requests.get(url, headers=headers) return response.content.decode(‘GBK‘) else: return response.content.decode(‘GBK‘) if __name__ == ‘__main__‘: # spider = XiciSpider() # spider = Ip3366Spider() # spider = KaiSpider() # spider = ProxylistplusSpider() spider = Ip66Spider() for proxy in spider.get_proxies(): print(proxy)
5
以上是关于Python_01_IP代理池_实现代理池的爬虫模块的及具体爬虫的主要内容,如果未能解决你的问题,请参考以下文章