scrapy爬取杰书网小说

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了scrapy爬取杰书网小说相关的知识,希望对你有一定的参考价值。

‘‘‘
爬取网站 杰书网
网站地址 http://www.jieqishu.com
本脚本只为学习
‘‘‘
import requests
from bs4 import BeautifulSoup
import time,random

book_name = ‘jieqishu‘ # 爬虫名
book_url = ‘http://www.jieqishu.com‘ + ‘/‘ + book_name + ‘/‘ #拼接小说地址)
response = requests.get(url= book_url)

response.encoding = response.apparent_encoding #转码
soup = BeautifulSoup(response.text, features=‘html.parser‘)
a = soup.find(id=‘list‘)
dd_all = a.find_all(‘dd‘)
http_all = []

for i in dd_all:
http_all.append(book_url + i.find(‘a‘).attrs.get(‘href‘))
http_all = http_all[8:] #从开头开始截取都为7章
m = 5 #测试限定爬取次数
with open(book_name+‘.txt‘, ‘w‘) as f:
n = 0 #计数
for i in http_all:
if m==n:break
h = requests.get(url=i)
h.encoding = h.apparent_encoding
hb = BeautifulSoup(h.text, features=‘html.parser‘)
tar_t = hb.find(id=‘content‘)
tar_h = hb.find("h1").text
f.write(tar_h+‘ ‘)
for j in tar_t:
if str(j)!="<br/>":
f.write(str(j).lstrip()+‘ ‘)
time.sleep(random.randint(3, 6))#增加爬取时间间隔,防止被封ip
n+=1
f.write(‘ ‘)
print(‘第%d章写入完成!‘%n)
f.close()

以上是关于scrapy爬取杰书网小说的主要内容,如果未能解决你的问题,请参考以下文章

scrapy初探之实现爬取小说

scrapy爬取小说盗墓笔记

Python爬虫之Scrapy框架系列(14)——实战ZH小说爬取多页爬取

scrapy进阶(CrawlSpider爬虫__爬取整站小说)

Python爬虫之Scrapy框架系列(14)——实战ZH小说爬取多页爬取

python应用:爬虫框架Scrapy系统学习第四篇——scrapy爬取笔趣阁小说