爬虫页面
Posted cui00
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了爬虫页面相关的知识,希望对你有一定的参考价值。
9.31
爬取百度
import urllib.request
response=urllib.request.urlopen(‘http://www.baidu.com‘)
print(response.read().decode(‘utf-8‘))
爬取
10.1
- 主动提交url
2.设置友情链接
3.百度会和DNS服务商务合作,抓取新页面?
爬取步骤
1.给一个url
2.写程序,模拟浏览器访问url
3.解析内容,提取数据
使用库 urllib equestss4
解析网页 正则表达式s4xpathjsonpath
涉及动态html selenium+phantomjschromeheadless
10.2
Python 爬虫架构
主要由五个部分组成,分别是调度器、URL管理器、网页下载器、网页解析器、应用程序。
- 调度器:相当于一台电脑的CPU,主要负责调度URL管理器、下载器、解析器之间的协调工作。
- URL管理器:包括待爬取的URL地址和已爬取的URL地址,防止重复抓取URL和循环抓取URL,实现URL管理器主要用三种方式,通过内存、数据库、缓存数据库来实现。
- 网页下载器:通过传入一个URL地址来下载网页,将网页转换成一个字符串,网页下载器有urllib2(Python官方基础模块)包括需要登录、代理、和cookie,requests(第三方包)
- 网页解析器:将一个网页字符串进行解析,可以按照我们的要求来提取出我们有用的信息,也可以根据DOM树的解析方式来解析。网页解析器有正则表达式(直观,将网页转成字符串通过模糊匹配的方式来提取有价值的信息,当文档比较复杂的时候,该方法提取数据的时候就会非常的困难)、html.parser(Python自带的)、beautifulsoup(第三方插件,可以使用Python自带的html.parser进行解析,也可以使用lxml进行解析,相对于其他几种来说要强大一些)、lxml(第三方插件,可以解析 xml 和 HTML),html.parser 和 beautifulsoup 以及 lxml 都是以 DOM 树的方式进行解析的。
- 应用程序:就是从网页中提取的有用数据组成的一个应用。
10.3
scrapy框架
scrapy-redis组建
涉及到爬虫-反爬虫-反反爬虫的一些内容UA,代理,验证码,动态页面
fiddler抓包工具
1.配置 tools=>options=>https
选中:capture https
decrypt https trafic
ignore xxx
点击:action ok
配置完成把fiddler关闭重启
一个页面的呈现,中间有好多的http请求,平均一个网页有10-15个http请求
抓包
<>:html内容
{json}:json数据,很可能就是个接口
{css}:css文件
{js}:js文件
停止抓取 : file=>copture 点击就会切换
点击请求:右边选中 Instpectors
右上:http请求信息
raw:请求头部的详细信息
webforns:请求所带参数,query_string
formdata
右下:http响应信息
首先点击黄色条进行解码
raw:响应的所有信息
headers:响应头
json:接口返回内容
左下黑色框,输入指令
clear:清除所有请求
select json:选择所有json请求
select image:选择图片请求
select html:选择html请求
?内容:搜索内容有关的请求
10.4
- urllib库
模拟浏览器发送请求的库,Pythion自带
Python2:urllib urllib2
python3:urllib.request urllib.parse
字符串=>二进制字符串的转换
encode()字符串=>字节类型
如果括号里面不写默认utf8,如果些就是gbk
decode()字节类型=>字符串
如果括号里面不写默认utf8,如果些就是gbk
⑴urllib.request属性方法
urlopen
urlretrieve
⑵urlib.parse属性方法
⑶response属性方法
read()读取响应内容,内容是字节类型
geturl()获取请求的url
getheaders()获取响应头信息,列表里面有元组
getcode()获取状态码
readlines()获取按行读取,还回列表,字节类型
例子1:
import urllib.request
url=‘http://www.baidu.com‘
#完整的url
#url=‘http://www.baidu.com:80/index.html?name=123#lala
response=urllib.request.urlopen(url=url)
#print(response.read( ).decode())发送请求响应
with open(‘baidu.html‘,‘w‘,encoding=‘utf8‘) as fp:
fp.write(response.read().deconde())
10.5 - 5.sublime使用
1.安装,激活
2.安装插件管理器
packagecontrol
安装两种方式
1.指令安装
2.下载包放在指定位置
3.安装插件
输入ctrl+shift+p
输入pic,选中 instanll packages
进入输入插件名字点击就能安装
以上是关于爬虫页面的主要内容,如果未能解决你的问题,请参考以下文章