Python 爬虫 之 阅读呼叫转移

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Python 爬虫 之 阅读呼叫转移相关的知识,希望对你有一定的参考价值。

    尽管上一篇博客中我们能够连续地阅读章节了,可是。难道每一次看小说都执行一下我们的 Python 程序?连记录看到哪里都不行,每次都是又一次来过?当然不能这样,改!

如今这么多小说阅读器,我们仅仅须要把我们要的小说抓取到本地的 txt 文件中就好了,然后自己选个阅读器看。怎么整都看你了。


    事实上上个程序我们已经完毕了大部分逻辑,我们接下来的修改仅仅须要把抓取到每一章的时候不用显示出来,而是存入 txt 文件之中。另外一个是程序是不断地依据下一页的 Url 进行抓取的,那么什么时候结束呢?注意当到达小说的最后一章时下一页的链接是和返回文件夹的链接是一样的。所以我们抓取一个网页的时候就把这两个链接拿出来,仅仅要出现两个链接一样的时候。就停止抓取。最后就是我们这个程序不须要多线程了,我们仅仅要一个不断在抓取小说页面的线程即可了。

    只是,小说章节多一点时候,等待完毕的时间会有点久。眼下就不考虑这么多了,基本功能完毕就 OK....


    基础知识:前面的基础知识 - 多线程知识 + 文件操作知识。


     源码:

# -*- coding:utf-8 -*-

import urllib2
import urllib
import re
import thread
import chardet

class Book_Spider:

    def __init__(self):
        self.pages = []
        self.page = 1
        self.flag = True
        self.url = "http://www.quanben.com/xiaoshuo/0/910/59302.html"

    # 将抓取一个章节
    def GetPage(self):
        myUrl = self.url
        user_agent = ‘Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)‘
        headers = { ‘User-Agent‘ : user_agent }
        req = urllib2.Request(myUrl, headers = headers)
        myResponse = urllib2.urlopen(req)
        myPage = myResponse.read()

        charset = chardet.detect(myPage)
        charset = charset[‘encoding‘]
        if charset == ‘utf-8‘ or charset == ‘UTF-8‘:
            myPage = myPage
        else:
            myPage = myPage.decode(‘gb2312‘,‘ignore‘).encode(‘utf-8‘)
        unicodePage = myPage.decode("utf-8")

        # 找出 id="content"的div标记
        try:
            #抓取标题
            my_title = re.search(‘<h1>(.*?

)</h1>‘,unicodePage,re.S) my_title = my_title.group(1) except: print ‘标题 HTML 变化。请又一次分析!‘ return False try: #抓取章节内容 my_content = re.search(‘<div.*?

id="htmlContent" class="contentbox">(.*?)<div‘,unicodePage,re.S) my_content = my_content.group(1) except: print "内容 HTML 变化,请又一次分析。" return False my_content = my_content.replace("<br />","\n") my_content = my_content.replace(" "," ") #用字典存储一章的标题和内容 onePage = {‘title‘:my_title,‘content‘:my_content} try: #找到页面下方的连接区域 foot_link = re.search(‘<div.*?class="chapter_Turnpage">(.*?)</div>‘,unicodePage,re.S) foot_link = foot_link.group(1) #在连接的区域找下一页的连接,依据网页特点为第三个 nextUrl = re.findall(u‘<a.*?href="(.*?

)".*?>(.*?)</a>‘,foot_link,re.S) #文件夹链接 dir_url = nextUrl[1][0] nextUrl = nextUrl[2][0] # 更新下一次进行抓取的链接 self.url = nextUrl if(dir_url == nextUrl): self.flag = False return onePage except: print "底部链接变化。请又一次分析!" return False # 用于载入章节 def downloadPage(self): f_txt = open(u"斗罗大陆.txt",‘w+‘) while self.flag: try: # 获取新的页面 myPage = self.GetPage() if myPage == False: print ‘抓取失败!

‘ self.flag = False title = myPage[‘title‘].encode(‘utf-8‘) content = myPage[‘content‘].encode(‘utf-8‘) f_txt.write(title + ‘\n\n‘) f_txt.write(content) f_txt.write(‘\n\n\n‘) print "已下载 ",myPage[‘title‘] except: print ‘无法连接server!‘ self.flag = False f_txt.close() def Start(self): print u‘開始下载......\n‘ self.downloadPage() print u"下载完毕" #----------- 程序的入口处 ----------- print u""" --------------------------------------- 程序:阅读呼叫转移 版本号:0.3 作者:angryrookie 日期:2014-07-08 语言:Python 2.7 功能:按下回车開始下载 --------------------------------------- """ print u‘请按下回车:‘ raw_input(‘ ‘) myBook = Book_Spider() myBook.Start()





    效果见图:

技术分享









以上是关于Python 爬虫 之 阅读呼叫转移的主要内容,如果未能解决你的问题,请参考以下文章

杂记之--苹果4s手机呼叫转移怎么设置

freeswitch怎么实现呼叫转移

scrapy按顺序启动多个爬虫代码片段(python3)

scrapy主动退出爬虫的代码片段(python3)

Pjsip Android 中的呼叫转移返回 403 Forbidden

Twilio,如何将正在进行的呼叫转移到另一个号码