python爬虫,使用requests设置代理

Posted 布都御魂

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了python爬虫,使用requests设置代理相关的知识,希望对你有一定的参考价值。

免费代理的网站: http://www.xicidaili.com/nn/

代码部分:

import requests

proxy=\'124.243.226.18:8888\'

#如果代理需要验证,只需要在前面加上用户名密码,如下所示

# proxy=\'username:password@124.243.226.18:8888\'
proxies={
    \'http\':\'http://\'+proxy,
    \'https\':\'https://\'+proxy,
}
try:
    response=requests.get(\'http://httpbin.org/get\',proxies=proxies)
    print(response.text)
except requests.exceptions.ConnectionError as e:
    print("Error",e.args)
 

输出:

{
  "args": {},
  "headers": {
    "Accept": "*/*",
    "Accept-Encoding": "gzip, deflate",
    "Connection": "close",
    "Host": "httpbin.org",
    "User-Agent": "python-requests/2.20.0"
  },
  "origin": "124.243.226.18",
  "url": "http://httpbin.org/get"
}

 

 

基于 selenium的代理设置:

from selenium import webdriver

proxy=\'124.243.226.18:8888\'

option=webdriver.ChromeOptions()

option.add_argument(\'--proxy-server=http://\'+proxy)

driver = webdriver.Chrome(options=option)

driver.get(\'http://httpbin.org/get\')

 

以上是关于python爬虫,使用requests设置代理的主要内容,如果未能解决你的问题,请参考以下文章

Python爬虫 - requests(高级)

一篇博文让你了解,Python爬虫库的代理设置方法!

python爬虫-代理池的维护

Python爬虫连载10-Requests模块Proxy代理

Python爬虫框架Scrapy实例下载中间件设置

Python-爬虫-基本库(requests)使用