爬取网易新闻排行榜

Posted qy1234

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了爬取网易新闻排行榜相关的知识,希望对你有一定的参考价值。

 

#网络爬虫之最基本的爬虫:爬取[网易新闻排行榜](http://news.163.com/rank/)

**一些说明:**

* 使用urllib2或requests包来爬取页面。

* 使用正则表达式分析一级页面,使用Xpath来分析二级页面。

* 将得到的标题和链接,保存为本地文件。
import os
import sys
import requests
import re

from lxml import etree


def StringListSave(save_path, filename, slist):
    # 检测是否有这个文件目录,不存在的话,会自动创建
    if not os.path.exists(save_path):
        os.makedirs(save_path)
    path = save_path+"/"+filename+".txt"
    with open(path, "w+") as fp:
        for s in slist:
            # 做了utf8转码,转为终端可识别的码制
            fp.write("%s		%s
" % (s[0].encode("utf8").decode(utf-8), s[1].encode("utf8").decode(utf-8)))


def Page_Info(myPage):
    ‘‘‘Regex‘‘‘
    # 这里的re.findall 返回的是一个元组列表,内容是 (.*?) 中匹配到的内容
    # 析取每个链接的标题和链接
    mypage_Info = re.findall(r<div class="titleBar" id=".*?"><h2>(.*?)
                             r</h2><div class="more"><a href="(.*?)">.*?</a></div></div>, myPage, re.S)
    return mypage_Info

def New_Page_Info(new_page):
    ‘‘‘Regex(slowly) or Xpath(fast)‘‘‘
    # 将new_page的内容转为html格式的树
    dom = etree.HTML(new_page)
    # 析取 <tr <td <a中的文本
    new_items = dom.xpath(//tr/td/a/text())
    # 析取 <tr <td <a中的链接, @href 是一个属性
    new_urls = dom.xpath(//tr/td/a/@href)
    assert(len(new_items) == len(new_urls))
    return zip(new_items, new_urls)

def Spider(url):
    i = 0
    print("downloading ", url)
    myPage = requests.get(url).content.decode("gbk")
    myPageResults = Page_Info(myPage)
    save_path = "网易新闻抓取"
    filename = str(i)+"_"+"新闻排行榜"
    StringListSave(save_path, filename, myPageResults)
    i += 1
    for item, url in myPageResults:
        print("downloading ", url)
        new_page = requests.get(url).content.decode("gbk")
        newPageResults = New_Page_Info(new_page)
        filename = str(i)+"_"+item
        StringListSave(save_path, filename, newPageResults)
        i += 1


if __name__ == __main__:
    print("start")
    start_url = "http://news.163.com/rank/"
    Spider(start_url)
    print("end")

 

解析一:检测是否有这个文件目录,不存在的话,会自动创建

import os
save_path = "网易新闻抓取"
if not os.path.exists(save_path):
   os.makedirs(save_path)

 

解析二:os.mkdir 与 os.makedirs 区别及用法:

1)mkdir( path [,mode] )

      作用:创建一个目录,可以是相对或者绝对路径,mode的默认模式是0777。
      如果目录有多级,则创建最后一级。如果最后一级目录的上级目录有不存在的,则会抛出一个OSError。

(2)makedirs( path [,mode] )

      作用: 创建递归的目录树,可以是相对或者绝对路径。
      如果子目录创建失败或者已经存在,会抛出一个OSError的异常,Windows上Error      183即为目录已经存在的异常错误。如果path只有一级,与mkdir一样。

     总结:os.mkdir()创建路径中的最后一级目录;os.makedirs()创建多层目录。

 

解析三:文件操作,with open as追加文本内容实例:

(1) 最常见的读写操作

import re
with open(/rr.txt, w) as f:
   f.write(hello world)

如图所示:

 技术分享图片

追加写入文件内容:

import re
with open(/rr.txt, a) as f:
    f.write(hello world
)
    # print(f.readline(1))

如图所示:

 技术分享图片

(2) 一些正则表达式的关键词

 

w:以写方式打开,

a:以追加模式打开 (从 EOF 开始, 必要时创建新文件)

r+:以读写模式打开

w+:以读写模式打开 (参见 w )

a+:以读写模式打开 (参见 a )

rb:以二进制读模式打开

wb:以二进制写模式打开 (参见 w )

ab:以二进制追加模式打开 (参见 a )

rb+:以二进制读写模式打开 (参见 r+ )

wb+:以二进制读写模式打开 (参见 w+ )

ab+:以二进制读写模式打开 (参见 a+ )fp.read([size])                    

 

解析四:python格式化输出

%s		%s

解: %s:字符串; :换行; : 横向制表符

 

 

1、  打印字符串

 

2、打印整数

 

3、打印浮点数

 

 

4、打印浮点数(指定保留小数点位数)

 

 

5、指定占位符宽度

 

 

 

6、指定占位符宽度,指定对其方式

 

 

以上是关于爬取网易新闻排行榜的主要内容,如果未能解决你的问题,请参考以下文章

scrapy爬取网易新闻内容

scrapy爬虫案例--如何爬取网易新闻?

爬取网易云听歌排行榜歌单制作云词

5行代码带你爬取 “2021福布斯排行榜“,看看中国都有哪些人?

5行代码带你爬取 “2021福布斯排行榜“,看看中国都有哪些人?

Python爬虫实战教程:爬取网易新闻;爬虫精选 高手技巧