ElasticSearch学习笔记

Posted new一个对象777

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了ElasticSearch学习笔记相关的知识,希望对你有一定的参考价值。

ElasticSearch学习

Lucene概念

Lucene是apache软件基金会 jakarta项目组的一个子项目,是一个开放源代码的全文检索引擎工具包,但它不是一个完整的全文检索引擎,而是一个全文检索引擎的架构,提供了完整的查询引擎和索引引擎,部分文本分析引擎(英文与德文两种西方语言)。Lucene的目的是为软件开发人员提供一个简单易用的工具包,以方便的在目标系统中实现全文检索的功能,或者是以此为基础建立起完整的全文检索引擎。Lucene是一套用于全文检索和搜寻的开源程式库,由Apache软件基金会支持和提供。Lucene提供了一个简单却强大的应用程式接口,能够做全文索引和搜寻。在Java开发环境里Lucene是一个成熟的免费开源工具。就其本身而言,Lucene是当前以及最近几年最受欢迎的免费Java信息检索程序库。人们经常提到信息检索程序库,虽然与搜索引擎有关,但不应该将信息检索程序库与搜索引擎相混淆。

大数据就两个问题:存储 + 计算!

Lucene是一套信息检索工具包,jar包,不包含搜索引擎。

包含的:索引结构,读写索引的工具,排序,搜索规则,工具类等。

Lucene是一套信息检索工具包,并不包含搜索引擎系统,它包含了索引结构、读写索引工具、相关性工具、排序等功能,因此在使用Lucene时仍需要关注搜索引擎系统,例如数据获取、解析、分词等方面的东西。而solr和elasticsearch都是基于该工具包做的一些封装。

Lucene 和 ElasticSearch关系:

ElasticSearch是基于Lucene做了一些封装和增强。

solr利用zookpper进行分布式管理,而elasticsearch自身带有分布式协调管理功能;

solr比elasticsearch实现更加全面,solr官方提供的功能更多,而elasticsearch本身更注 重于核心功能,高级功能多由第三方插件提供;

solr在传统的搜索应用中表现好于elasticsearch,而elasticsearch在实时搜索应用方面比solr表现好!

ElasticSearch概念

Elasticsearch是一个基于Lucene的搜索服务器。它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口。Elasticsearch是用Java语言开发的,并作为Apache许可条款下的开放源码发布,是一种流行的企业级搜索引擎。Elasticsearch用于云计算中,能够达到实时搜索,稳定,可靠,快速,安装使用方便。官方客户端在Java、.NET(C#)、php、Python、Apache Groovy、Ruby和许多其他语言中都是可用的。根据DB-Engines的排名显示,Elasticsearch是最受欢迎的企业搜索引擎,其次是Apache Solr,也是基于Lucene

用于全文搜索,结构化搜索,分析。

Solr和ElasticSearch的区别




安装ElasticSearch

官网下载 :https://www.elastic.co/cn/downloads/elasticsearch 速度超级慢 建议去中文社区下载

中文社区:https://elasticsearch.cn/download/

运行

解压之后在bin目录里面打开elasticsearch.bat运行,然后在浏览器输入localhost:9200可以看到成功界面:

可视化界面

下载地址: https://github.com/mobz/elasticsearch-head

前提是有node和npm环境!!

安装皆可:npm install grunt-contrib-jasmine --registry=https://registry.npm.taobao.org

安装完成之后再运行就不会报错了:

启动:

npm install
npm run start


如何解决跨域问题

在elasticsearch的配置文件中elasticsreach.yml中添加两行参数,如下,重启elasticsearch解决跨域问题

http.cors.enabled: true
http.cors.allow-origin: "*"

创建索引:

这个head可视化工具我们就当做一个数据展示工具,我们后面所以的查询操作都会在kibana中进行

安装Kibana 要和elasticsearch版本一致

下载解压:

解压后的目录:

启动 启动前提:elasticsearch必须开启, 因为有package.json文件 所以这是一个前端项目

旧版本:

新版本:

访问端口:localhost:5601

之后所有的操作都在这里面进行

汉化,我们这个包里面有定义好的国际化,直接拿来用就可以了

D:\\JavaService\\kibana-7.10.0-windows-x86_64\\x-pack\\plugins\\translations\\translations\\zh-CN.json

然后在配置文件中更改一下参数就可以了:i18n.locale: “zh-CN”

ES核心概念

索引

字段的类型 mapping

文档即记录

分片–倒排索引



IK分词器插件

使用中文就用IK分词器,这个版本还是要一致。

将下载的包解压到插件目录下就可以了。

重新启动之后可以看到

这说明插件已经被加载了。

用命令查看所有的插件可以看到我们刚按的ik插件。

ik_smart 最少切分 没有重复

ik_max_word 最细粒度划分,穷尽所有的可能 有重复

有一个问题,那就是我们想搜索狂神说这个词,但是在这里他默认的给拆分了,所以我们只能自己把狂神说这个词加到字典里面去。在ik插件中去配置就可以了。


Rest风格说明

关于索引的基本操作

插入操作

  1. 创建索引 PUT命令是插入的意思
PUT /索引名/类型名(以后不用写)/文档ID

	请求体





以后的type会被阉割,所以我们用_doc来代替就好了


更新操作


关于文档的基本操作 (重点)


GET shi/_search

  "query":
    "match":
      "name":"雨伞"
    
  ,
    "_source":["name","price"]


排序 分页

GET shi/_search

  "query": 
    "match": 
      "name": "手"
    
  ,
  "sort": [
    
      "price": 
        "order": "desc"
      
    
  ],
  "from": 0,
  "size": 2


# 复杂查询 - 查询 - 排序 - 分页
GET test/_search

  "query": 
    "match": 
      "name": "樱木花"
    
  ,
  "_source": ["name","age"],
  "sort": [
    
      "age": 
        "order": "desc"
      
    
  ],
  "from": 0,
  "size": 3

多条件精确查询 must命令相当于and should命令相当于or



# 加了过滤器的精确多条件查询
GET test/_search

  "query": 
    "bool": 
      "must": [
        
          "match": 
            "name": "樱木"
          
        
      ],
      "filter": [
        
          "range": 
            "age": 
              "gte": 10,
              "lte": 20
            
          
        
      ]
    
  

匹配多个条件

精确查询

简单来说一下精确查询的原理:

term query会去倒排索引中寻找确切的term,它并不知道分词器的存在,所以他只能查出当这个字段类型是不可以分词的情况,这种查询适合keyword、numeric、date等明确值的。

而match查询相当于模糊查询,match是知道分词器的存在的,并且每次查询都会进行分词,所以查到的结果会有很多。

因为term不考虑分词所以他查的条件就是字段所有的内容。

term:查询某个字段里含有某个关键词的文档

GET test/_search

  "query": 
    "term": 
      "address.keyword": "日本大阪"
    
  

![在这里插入图片描述](https://img-blog.csdnimg.cn/2021051317453425.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDQ3NTc0MQ==,size_16,color_FFFFFF,t_70)

它和term区别可以理解为term是精确查询,这边match模糊查询;match会对my ss分词为两个单词,然后term对认为这是一个单词

term是根据倒排索引进行精确查找的。

高亮查询


集成SpringBoot

  1. 依赖
<dependency>
    <groupId>org.elasticsearch.client</groupId>
    <artifactId>elasticsearch-rest-high-level-client</artifactId>
    <version>7.10.0</version>
</dependency>
  1. 怎么用

注意我们springboot自带的es版本和我们本地的版本不一样会造成预想不到的问题

# 找到自带的版本自定义修改就可以了
<elasticsearch.version>7.9.3</elasticsearch.version>

所有的关于数据库的都在springboot的自动配置包的data包下

编写配置类

package com.shi.config;

import org.apache.http.HttpHost;
import org.elasticsearch.client.RestClient;
import org.elasticsearch.client.RestHighLevelClient;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;

@Configuration
public class ElasticSearchClientConfig 

    @Bean
    public RestHighLevelClient restHighLevelClient()
        RestHighLevelClient client = new RestHighLevelClient(
                RestClient.builder(
                        new HttpHost("localhost", 9200, "http")));
        return client;
    


然后在测试中注入就可以了

@Autowired
private RestHighLevelClient restHighLevelClient; 
//名称必须是默认的,否则会报错 否则加注解 @Qualifier("restHighLevelClient")

测试高级客户端API

创建索引

// 创建索引
@Test
void createIndex() throws IOException 
    // 创建索引请求
    CreateIndexRequest request = new CreateIndexRequest(".shi_1");
    // 客户端运行请求,然后响应
    CreateIndexResponse createIndexResponse = client.indices().create(request, RequestOptions.DEFAULT);
    System.out.println(createIndexResponse.index());


获取索引

// 获取索引
@Test
void existIndex() throws IOException 
    GetIndexRequest getIndexRequest = new GetIndexRequest(".shi_1");
    boolean exists = client.indices().exists(getIndexRequest, RequestOptions.DEFAULT);
    System.out.println(exists);
// 返回true

删除索引

// 删除索引
@Test
void deleteIndex() throws IOException 
    DeleteIndexRequest t2 = new DeleteIndexRequest("t2");
    AcknowledgedResponse delete = client.indices().delete(t2, RequestOptions.DEFAULT);
    System.out.println(delete);
// 返回true true代表删除成功

添加索引

由于我们的user对象需要转化成json的格式方便存储和读取,所以我们用阿里巴巴的fastjson包来转化

<!-- https://mvnrepository.com/artifact/com.alibaba/fastjson -->
<dependency>
    <groupId>com.alibaba</groupId>
    <artifactId>fastjson</artifactId>
    <version>1.2.75</version>
</dependency>
// 添加文档
@Test
void addDocument() throws IOException 
    // 创建对象
    User user = new User("海波东", 52);
    // 创建请求
    IndexRequest request = new IndexRequest(".shi_1");

    // 规则 put shi/_doc/1
    request.id("1");
    request.timeout("1s");

    //将我们的数据放入请求
    request.source(JSON.toJSONString(user), XContentType.JSON);

    // 客户端发送请求 获取响应结果
    IndexResponse index = client.index(request, RequestOptions.DEFAULT);
    System.out.println(index.toString());
    System.out.println(index.status());



获取文档 查看文档是否存在

// 获取文档 查看文档是否存在
@Test
void existDocument() throws IOException 
    GetRequest getRequest = new GetRequest(".shi_1", "1");
    //不获取返回的上下文了
    getRequest.fetchSourceContext(new FetchSourceContext(false));
    getRequest.storedFields("_none_");

    boolean exists = client.exists(getRequest, RequestOptions.DEFAULT);
    System.out.println(exists);
 // 返回true 表示存在该文档

获取文档信息

// 获取文档信息
@Test
void getDocument() throws IOException
    GetRequest request = new GetRequest(".shi_1", "1");
    GetResponse response = client.get(request, RequestOptions.DEFAULT);

    // 打印文档键值对
    System.out.println(response.getSourceAsString());

    // 打印文档所有内容
    System.out.println(response);
	

更新文档信息

// 更新文档
@Test
void updateDocument() throws  IOException
    UpdateRequest request = new UpdateRequest(".shi_1", "1");
    request.timeout("1s");
    User user = new User("药尘", 67);

    request.doc(JSON.toJSONString(user),XContentType.JSON);

    UpdateResponse update = client.update(request, RequestOptions.DEFAULT);
    System.out.println(update.status());
 // 返回OK

删除文档信息

// 删除文档信息
@Test
void deleteDocument() throws IOException 
    DeleteRequest deleteRequest = new DeleteRequest(".shi_1", "2");
    deleteRequest.timeout("1s");
    DeleteResponse delete = client.delete(deleteRequest, RequestOptions.DEFAULT);
    System.out.println(delete.status());
 // 返回OK  表示删除成功

批量增加文档信息

// 批量增加文档信息
@Test
void addBlukDocument() throws IOException 
    BulkRequest bulkRequest = new BulkRequest();
    bulkRequest.timeout("10s");

    List<User> list = new ArrayList<>();
    list.add(new User("千仞雪",20));
    list.add(new User("千仞雪1",21));
    list.add(new User("千仞雪2",22));
    list.add(new User("千仞雪3",22));
    list.add(new User("千仞雪4",23));
    list.add(new User("千仞雪5",21));

    for (以上是关于ElasticSearch学习笔记的主要内容,如果未能解决你的问题,请参考以下文章

Elasticsearch搜学习笔记

Elasticsearch搜学习笔记

Elasticsearch - 尚硅谷(2. Elasticsearch 安装)学习笔记

Elasticsearch - 尚硅谷(5. Elasticsearch 环境)学习笔记

elasticsearch学习笔记

Elasticsearch 学习笔记 Elasticsearch及Elasticsearch head安装配置