完整的爬虫程序爬取百度贴吧的图片

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了完整的爬虫程序爬取百度贴吧的图片相关的知识,希望对你有一定的参考价值。

#!/usr/bin/env python
#-- coding:utf-8 --

import os
import urllib
import urllib2
from lxml import etree

class Spider:
def init(self):
self.tiebaName = raw_input("请需要访问的贴吧:")
self.beginPage = int(raw_input("请输入起始页:"))
self.endPage = int(raw_input("请输入终止页:"))

    self.url = ‘http://tieba.baidu.com/f‘
    self.ua_header = {"User-Agent" : "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1 Trident/5.0;"}

    #图片编号
    self.userName = 1

def tiebaSpider(self):
    for page in range(self.beginPage, self.endPage + 1):
        pn = (page - 1) * 50 # page number
        word = {‘pn‘ : pn, ‘kw‘: self.tiebaName}

        word = urllib.urlencode(word) #转换成url编码格式(字符串)
        myUrl = self.url + "?" + word

        #示例:http://tieba.baidu.com/f? kw=%E7%BE%8E%E5%A5%B3 & pn=50
        #调用 页面处理函数 load_Page
        #并且获取页面所有帖子链接,
        links = self.loadPage(myUrl)  # urllib2_test3.py

#读取页面内容
def loadPage(self, url):
    req = urllib2.Request(url, headers = self.ua_header)
    html = urllib2.urlopen(req).read()

    #解析html 为 HTML 文档
    selector=etree.HTML(html)

    #抓取当前页面的所有帖子的url的后半部分,也就是帖子编号
    #http://tieba.baidu.com/p/4884069807里的 “p/4884069807”
    links = selector.xpath(‘//div[@class="threadlist_lz clearfix"]/div/a/@href‘)

    #links 类型为 etreeElementString 列表
    #遍历列表,并且合并成一个帖子地址,调用 图片处理函数 loadImage
    for link in links:
        link = "http://tieba.baidu.com" + link
        self.loadImages(link)

#获取图片
def loadImages(self, link):
    req = urllib2.Request(link, headers = self.ua_header)
    html = urllib2.urlopen(req).read()

    selector = etree.HTML(html)

    #获取这个帖子里所有图片的src路径
    imagesLinks = selector.xpath(‘//img[@class="BDE_Image"]/@src‘)

    #依次取出图片路径,下载保存
    for imagesLink in imagesLinks:
        self.writeImages(imagesLink)

#保存页面内容
def writeImages(self, imagesLink):
    ‘‘‘
        将 images 里的二进制内容存入到 userNname 文件中
    ‘‘‘

    print imagesLink
    print "正在存储文件 %d ..." % self.userName
    #1. 打开文件,返回一个文件对象
    file = open(‘./images/‘ + str(self.userName)  + ‘.png‘, ‘wb‘)

    #2. 获取图片里的内容
    images = urllib2.urlopen(imagesLink).read()

    #3. 调用文件对象write() 方法,将page_html的内容写入到文件里
    file.write(images)

    #4. 最后关闭文件
    file.close()

    #计数器自增1
    self.userName += 1

#模拟 main 函数
if name == "main":

# 首先创建爬虫对象
mySpider = Spider()
# 调用爬虫对象的方法,开始工作
mySpider.tiebaSpider()

以上是关于完整的爬虫程序爬取百度贴吧的图片的主要内容,如果未能解决你的问题,请参考以下文章

python爬虫:使用Selenium模拟浏览器行为

Python爬虫实例爬取百度贴吧帖子中的图片

爬虫爬取百度搜狗图片持久化存储

Python网络爬虫四通过关键字爬取多张百度图片的图片

python爬虫爬取百度图片

爬虫,爬取百度贴吧图片,未完善,请指教