利用 SeraX 搭建私人搜索引擎

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了利用 SeraX 搭建私人搜索引擎相关的知识,希望对你有一定的参考价值。

参考技术A 转自https://www.toutiao.com/i6668156148627014156/?tt_from=mobile_qq&utm_campaign=client_share×tamp=1553062791&app=news_article&utm_source=mobile_qq&utm_medium=toutiao_android&group_id=6668156148627014156

百度广告那么多,我们能不能自己搭建个搜索引擎使用呢?答案是肯定的,searX

正是一个基于 Python 的完全开源免费的搜索引擎平台,它开源为你提供来自于 Google、Bing、Yahoo

等网站结果展示,而且会对搜索结果进行优化,同时不会存储你的任何搜索信息,搭建也非常的简单方便。

本地搭建演示使用的是 Debian 9 ,命令如下:

切换root账户:sudo -i

更新软件包:apt-get -y update

安装pip:apt-get -y install python-pip

安装git:apt-get -y install git

拉去searX源码:git clone https://github.com/asciimoo/searx.git

编辑searX配置:vi searx/settings.yml

此时已经安装完成并进入到 searX 的配置中,我们在 server 内的 bind_address 后面双引号内的 ip 地址改为 0.0.0.0 ,然后并保存退出。

运行 searX 并在保持在后台运行,命令如下:

安装screen:apt-get install screen -y

后台运行:screen -dmS searx python searx/webapp.py

服务默认端口是 8888 ,如果未在配置文件中修改过的话,此时则可以访问 ip:8888 进行访问,此时 searX 可以正常使用了。

项目地址:https://github.com/asciimoo/searx

scrapy+baiduapi搭建一个私人小说阅读器(智能爬取加智能朗读)

写在前面的话

喜欢看小说,平时都是通过电脑或者手机看小说,手机听小说(智能语音),或者喜马拉雅搜索小说听(好多喜欢的都收费o(╥﹏╥)o,然后网上好多免费资源却不能听),想在电脑上听小说,目前Microsoft Edge可以阅读网页文本很赞,不能自动翻译很烦(# ̄~ ̄#),而且智能语音库体验很差,所以想一个能搜索网上资源智能朗读的东东,木有发现好的,就自己写一个吧!

技术图片(Microsoft Edge阅读视图朗读示例)

 

 

小说资源获取(scrapy爬虫获取biquge资源)

1.scrapy环境搭建,这里就不说了,网上资源一堆,我也收录了一个,不知道可以看看,附带一个scrapy经典的架构图(转载)

 

技术图片

    • 引擎(Scrapy)
      用来处理整个系统的数据流处理, 触发事务(框架核心)
    • 调度器(Scheduler)
      用来接受引擎发过来的请求, 压入队列中, 并在引擎再次请求的时候返回. 可以想像成一个URL(抓取网页的网址或者说是链接)的优先队列, 由它来决定下一个要抓取的网址是什么, 同时去除重复的网址
    • 下载器(Downloader)
      用于下载网页内容, 并将网页内容返回给蜘蛛(Scrapy下载器是建立在twisted这个高效的异步模型上的)
    • 爬虫(Spiders)
      爬虫是主要干活的, 用于从特定的网页中提取自己需要的信息, 即所谓的实体(Item)。用户也可以从中提取出链接,让Scrapy继续抓取下一个页面
    • 项目管道(Pipeline)
      负责处理爬虫从网页中抽取的实体,主要的功能是持久化实体、验证实体的有效性、清除不需要的信息。当页面被爬虫解析后,将被发送到项目管道,并经过几个特定的次序处理数据。
    • 下载器中间件(Downloader Middlewares)
      位于Scrapy引擎和下载器之间的框架,主要是处理Scrapy引擎与下载器之间的请求及响应。
    • 爬虫中间件(Spider Middlewares)
      介于Scrapy引擎和爬虫之间的框架,主要工作是处理蜘蛛的响应输入和请求输出。
    • 调度中间件(Scheduler Middewares)
      介于Scrapy引擎和调度之间的中间件,从Scrapy引擎发送到调度的请求和响应。

2.核心代码编写,按照爬虫架构,来编写爬虫及各个中间件内容(见代码)

  爬虫核心代码(BiqugeSpider),最高爬取深度4层,同时定义了关键字和全文爬取2种策略

  第1层 根据关键字搜索小说列表(默认函数parse),这里主要根据获取分页所有页url,传递给下一层,小说的基本信息列表爬取层

  技术图片

 

   代码如下(这里xpath就不做介绍了,有兴趣自己学习下):

    def parse(self, response):  
        index=0
        #检索小说(这里通过判断关键字来进行全文或者关键字爬取)
        if self.p:
            for each in response.xpath("//*[@class=‘search-result-page-main‘]/a"):
               src=each.attrib[href]
               yield scrapy.Request(self.domainUrl+ src, callback = self.ParsePage,dont_filter=False)            
        else:
            for each in response.xpath("//*[@id=‘main‘]/div[1]/ul/li"):
                if index>0:
                    src=each.xpath(".//span[2]/a")[0].attrib[href]
                    yield scrapy.Request(self.domainUrl+ src, callback = self.BookBasic,dont_filter=False) 
                index=index+1

  第2层 根据小说基本信息列表获取每本小说的详情url,传递给下一层,小说基本信息爬取层

  图和第一层类似,这里省略

  代码如下:

 

    #获取分页内容,进行关键字深度爬取
    def ParsePage(self,response):
        for each in response.xpath("//*[@class=‘result-list‘]/div"):
            src=each.xpath(".//div/a")[0].attrib[href]
            yield scrapy.Request(self.domainUrl+ src, callback = self.BookBasic,dont_filter=False) 

 

  第3层 根据小说分页列表获取每本检索到小说的基本信息,同时获取章节列表url,传递给下一层,小说内容爬取层

  技术图片

 

  代码如下:(存储了小说的名称、作者、简介信息)

#获取小说基本信息,同时让调度器爬取小说内容
    def BookBasic(self,response):
        Id=uuid.uuid1()
        BookName=response.xpath("string(//*[@id=‘info‘]/h1)")[0].root.strip()  
        Author=response.xpath("string(//*[@id=‘info‘]/p)")[0].root.strip().split()[1]
        imgSrc=response.xpath("//*[@id=‘fmimg‘]/img")[0].attrib[src]
        img= requests.get(imgSrc)
        Image= img.content
        LatestChapter=response.xpath("string(//*[@id=‘info‘]/p[4]/a)")[0].root.strip()
        Desc1=response.xpath("string(//*[@id=‘intro‘])")[0].root.strip()
        #查询小说是否存在
        resp= self.mysql.Query("select Id from BookBasic where BookName=‘{0}‘".format(BookName))
        if not resp:          
           # 获取小说信息          
           Id=uuid.uuid1()
           #插入数据
           self.mysql.ExecuteSql("insert into BookBasic (BookName,Author,Image,LatestChapter,Desc1,Id) values(%s,%s,%s,%s,%s,%s)",(str(BookName),str(Author),Image,str(LatestChapter),str(Desc1),str(Id)))
        else:
            Id=resp[0][0]
            self.mysql.ExecuteSql("update BookBasic set LatestChapter=%s,Desc1=%s where Id=%s",(str(LatestChapter),str(Desc1),str(Id)))
        #查询所有章节
        list=self.mysql.Query("select Title from BookContent where Id=‘{0}‘".format(str(Id)))
        index=0
        listName=[]
        for each in response.xpath("//*[@id=‘list‘]/dl/dd"):
             try:                                             
                 src= each.xpath(".//a")[0].attrib[href]
                 title=each.xpath("string(.//a)")[0].root.strip()
                 if self.InTable(list,title):
                     print(title,"已经入库...")
                 elif title in listName:
                     print(title,"重复章节...")                
                 else:
                     request= scrapy.Request(self.domainUrl+ src, callback = self.BookContent,dont_filter=False)   
                     request.meta[id]=Id
                     request.meta[Chapter]=index
                     index=index+1
                     listName.append(title)
                     yield request
             except Exception as e:
                 print("analysis item error:"+item["title"]+ e);

  第4层 根据小说章节url获取小说内容信息,存储小说内容,到此,小说内容全部爬取完成

  技术图片

 

   代码如下:

  #爬取每个章节小说内容
    def BookContent(self,response):
        try:
            item=BiqugespiderItem()
            item[Title]=response.xpath("string(//*[@class=‘bookname‘]/h1)")[0].root.strip()
            item[Content]=response.xpath("string(//*[@id=‘content‘])")[0].root.strip()
            item[Id]= response.meta[id]
            item[Chapter]= response.meta[Chapter]
            yield item
        except Exception as e:
            print("login item error:"+item["title"]+ e);

 

 

 3.持久化处理

上面说到了爬虫的内容怎么获取,下面说到存储,当然这层可以自己处理,这里为了方便使用腾讯云mysql进行存储小说信息(mysql帮助类)

数据库和表结构初始化:

 #初始化数据库
    def IniMysql(self):
         #创建数据库
      conn=pymysql.connect(host=self.host,port=self.port,user=self.user,password=self.password,database=mysql)
      sql=create database if not exists Biquge
      cursor=conn.cursor()
      cursor.execute(sql)
      cursor.close()
      conn.close()           
      #创建表
      conn=pymysql.connect(host=self.host,port=self.port,user=self.user,password=self.password,database=self.defaultDb)
      cursor=conn.cursor()
      sql= """CREATE TABLE IF NOT EXISTS BookBasic(
                    BookName varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NOT NULL COMMENT ‘书名‘,
                    Author varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT ‘作者‘,
                    Image longblob NULL COMMENT ‘书封面‘,
                    LatestChapter varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT ‘最新章节‘,
                    Desc1 varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT ‘内容描述‘,
                    Id char(36) CHARACTER SET utf8 COLLATE utf8_general_ci NOT NULL COMMENT ‘主键‘,
                    PRIMARY KEY (`Id`) USING BTREE
                  ) ENGINE = InnoDB CHARACTER SET = utf8 COLLATE = utf8_general_ci ROW_FORMAT = Dynamic;
              """   
      cursor.execute(sql)
      sql="""CREATE TABLE IF NOT EXISTS BookContent(
                    DId char(36) CHARACTER SET utf8 COLLATE utf8_general_ci NOT NULL,
                    Title varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT ‘详情标题‘,
                    Content longtext CHARACTER SET utf8 COLLATE utf8_general_ci NULL COMMENT ‘内容信息‘,
                    Id char(36) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT ‘书主键‘,
                    Chapter varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT ‘章节‘,
                    SyncTime datetime(0) NULL DEFAULT NULL COMMENT ‘入库时间‘,
                    PRIMARY KEY (`DId`) USING BTREE
                  ) ENGINE = InnoDB CHARACTER SET = utf8 COLLATE = utf8_general_ci ROW_FORMAT = Compact;
          """
      cursor.execute(sql)
      cursor.close()
      conn.close()      

 

小说基本信息存储代码:

 if not resp:          
           # 获取小说信息          
           Id=uuid.uuid1()
           #插入数据
           self.mysql.ExecuteSql("insert into BookBasic (BookName,Author,Image,LatestChapter,Desc1,Id) values(%s,%s,%s,%s,%s,%s)",(str(BookName),str(Author),Image,str(LatestChapter),str(Desc1),str(Id)))
        else:
            Id=resp[0][0]
            self.mysql.ExecuteSql("update BookBasic set LatestChapter=%s,Desc1=%s where Id=%s",(str(LatestChapter),str(Desc1),str(Id)))

小说内容信息存储代码:

class BiqugespiderPipeline(object):
    def process_item(self, item, spider):
        DId=uuid.uuid1()
        SyncTime=datetime.datetime.now()
        mysql=MySqlComment()
        mysql.ExecuteSql("insert into BookContent values(%s,%s,%s,%s,%s,%s)",(str(DId),str(item[Title]),str(item[Content]),str(item[Id]),str(item[Chapter]),SyncTime))
        return item

 

数据库存储结果:

技术图片(小说基本信息)

 

技术图片(小说内容信息)

 

 

 4.代码地址

只能朗读客户端下一章继续写,代码github地址先附上

 

以上是关于利用 SeraX 搭建私人搜索引擎的主要内容,如果未能解决你的问题,请参考以下文章

scrapy+baiduapi搭建一个私人小说阅读器(智能爬取加智能朗读)

利用github搭建私人maven仓库

Elasticsearch使用Elasticsearch 7.8 快速搭建食谱搜索系统

3.高并发教程-基础篇-之分布式全文搜索引擎elasticsearch的搭建

利用Solr服务建立的站内搜索雏形

让你硬盘中的秘密文件(私人学习资料)无处可藏,Python开发桌面程序——文件搜索工具