爬虫页面

Posted cui00

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了爬虫页面相关的知识,希望对你有一定的参考价值。

9.31

爬取百度

import urllib.request

response=urllib.request.urlopen(‘http://www.baidu.com‘)
print(response.read().decode(‘utf-8‘))

爬取

10.1

  1. 主动提交url
    2.设置友情链接
    3.百度会和DNS服务商务合作,抓取新页面?
    爬取步骤
    1.给一个url
    2.写程序,模拟浏览器访问url
    3.解析内容,提取数据
    使用库  urllib equestss4
    解析网页  正则表达式s4xpathjsonpath
    涉及动态html   selenium+phantomjschromeheadless

10.2

Python 爬虫架构

主要由五个部分组成,分别是调度器、URL管理器、网页下载器、网页解析器、应用程序。

  • 调度器:相当于一台电脑的CPU,主要负责调度URL管理器、下载器、解析器之间的协调工作。
  • URL管理器:包括待爬取的URL地址和已爬取的URL地址,防止重复抓取URL和循环抓取URL,实现URL管理器主要用三种方式,通过内存、数据库、缓存数据库来实现。
  • 网页下载器:通过传入一个URL地址来下载网页,将网页转换成一个字符串,网页下载器有urllib2(Python官方基础模块)包括需要登录、代理、和cookie,requests(第三方包)
  • 网页解析器:将一个网页字符串进行解析,可以按照我们的要求来提取出我们有用的信息,也可以根据DOM树的解析方式来解析。网页解析器有正则表达式(直观,将网页转成字符串通过模糊匹配的方式来提取有价值的信息,当文档比较复杂的时候,该方法提取数据的时候就会非常的困难)、html.parser(Python自带的)、beautifulsoup(第三方插件,可以使用Python自带的html.parser进行解析,也可以使用lxml进行解析,相对于其他几种来说要强大一些)、lxml(第三方插件,可以解析 xml 和 HTML),html.parser 和 beautifulsoup 以及 lxml 都是以 DOM 树的方式进行解析的。
  • 应用程序:就是从网页中提取的有用数据组成的一个应用。

10.3
scrapy框架
scrapy-redis组建
涉及到爬虫-反爬虫-反反爬虫的一些内容UA,代理,验证码,动态页面
fiddler抓包工具
1.配置    tools=>options=>https
             选中:capture  https 
             decrypt https   trafic
               ignore    xxx
            点击:action  ok
配置完成把fiddler关闭重启
一个页面的呈现,中间有好多的http请求,平均一个网页有10-15个http请求
抓包
<>:html内容
{json}:json数据,很可能就是个接口
{css}:css文件
{js}:js文件
停止抓取 :   file=>copture  点击就会切换
点击请求:右边选中 Instpectors
        右上:http请求信息
                raw:请求头部的详细信息
               webforns:请求所带参数,query_string
formdata
        右下:http响应信息
              首先点击黄色条进行解码
              raw:响应的所有信息
              headers:响应头
             json:接口返回内容
        左下黑色框,输入指令
              clear:清除所有请求
              select json:选择所有json请求
              select image:选择图片请求
             select html:选择html请求
             ?内容:搜索内容有关的请求
10.4

    1. urllib库
      模拟浏览器发送请求的库,Pythion自带
      Python2:urllib  urllib2
      python3:urllib.request     urllib.parse
      字符串=>二进制字符串的转换
           encode()字符串=>字节类型
                如果括号里面不写默认utf8,如果些就是gbk
           decode()字节类型=>字符串
                如果括号里面不写默认utf8,如果些就是gbk
      ⑴urllib.request属性方法
               urlopen
               urlretrieve
      ⑵urlib.parse属性方法
      ⑶response属性方法
             read()读取响应内容,内容是字节类型
             geturl()获取请求的url
           getheaders()获取响应头信息,列表里面有元组
              getcode()获取状态码
          readlines()获取按行读取,还回列表,字节类型
      例子1:
      import    urllib.request
      url=‘http://www.baidu.com‘
      #完整的url
      #url=‘http://www.baidu.com:80/index.html?name=123#lala
      response=urllib.request.urlopen(url=url)
      #print(response.read( ).decode())发送请求响应
      with open(‘baidu.html‘,‘w‘,encoding=‘utf8‘) as fp:
             fp.write(response.read().deconde())
      10.5
    2. 5.sublime使用
            1.安装,激活
            2.安装插件管理器
                       packagecontrol
                        安装两种方式
                           1.指令安装
                            2.下载包放在指定位置
            3.安装插件
                 输入ctrl+shift+p
                 输入pic,选中 instanll packages
                 进入输入插件名字点击就能安装

以上是关于爬虫页面的主要内容,如果未能解决你的问题,请参考以下文章

网易云音乐Java版爬虫

Python爬虫小白入门Python 爬虫 – BeautifulSoup分析页面

网络爬虫--Beautiful页面解析

基于 Python 的 Scrapy 爬虫入门:页面提取

小白python爬虫之路——初识爬虫原理

Java_爬虫,如何抓取Js动态生成数据的页面?