ElasticSearch01_简介详解倒排索引安装es以及kibana检索es基本信息增删改查文档

Posted 所得皆惊喜

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了ElasticSearch01_简介详解倒排索引安装es以及kibana检索es基本信息增删改查文档相关的知识,希望对你有一定的参考价值。

文章目录

①. es - 背景、概述、功能、场景

  • ①. 背景:起源:Shay Banon。2004年失业,陪老婆去伦敦学习厨师。失业在家帮老婆写一个菜谱搜索引擎。封装了lucene,做出了开源项目compass找到。工作后,做分布式高性能项目,再封装compass,写出了elasticsearch,使得lucene支持分布式。现在是Elasticsearch创始人兼Elastic首席执行官(谢巴农)
  • ②. Elaticsearch,简称为es,是一个基于Lucene的搜索服务器。它提供了一个分布式多用户功能的全文搜索引擎,基于Restful web接口。ElasticSearch是用java开发的,并作为Apache许可条款下的开放源码发布,是当前流行的企业级搜索引擎
  1. 9200:Restful - 端口为浏览器访问的 http协议RESTful端口
  2. http端口 9300:TCP端口- Elasticsearch集群间组件的通信端口
  3. Elasticsearch官网
  • ③. Elasticsearch的功能
  1. 分布式的搜索引擎(搜索:百度、谷歌,站内搜索)
    分布式:Elasticsearch自动将海量数据分散到多台服务器上去存储和检索
  2. 全文检索:提供模糊搜索等自动度很高的查询方式,并进行相关性排名,高亮等功能
  3. 数据分析引擎(分组聚合):电商网站,最近一周笔记本电脑这种商品销量排名top10的商家有哪些?新闻网站,最近1个月访问量排名top3的新闻板块是哪些
  4. 对海量数据进行近实时的处理
    海量数据的处理:因为是分布式架构,Elasticsearch可以采用大量的服务器去存储和检索数据,自然而然就可以实现海量数据的处理
    近实时:Elasticsearch可以实现秒级别的数据搜索和分析
  • ④. Elasticsearch企业使用场景
  1. 搜索类场景:比如说电商网站、招聘网站、新闻资讯类网站、各种app内的搜索
  2. 日志分析类场景:经典的ELK组合(Elasticsearch/Logstash/Kibana),可以完成日志收集,日志存储,日志分析查询界面基本功能,目前该方案的实现很普及,大部分企业日志分析系统使用了该方案
  3. 数据预警平台及数据分析场景
    例如电商价格预警,在支持的电商平台设置价格预警,当优惠的价格低于某个值时,触发通知消息,通知用户购买
    数据分析常见的比如分析电商平台销售量top 10的品牌,分析博客系统、头条网站top 10关注度、评论数、访问量的内容等

②. 核心概念 - 索引、类型、文档、映射

  • ①. index索引
    类似的数据放在一个索引,非类似的数据放不同索引, 一个索引也可以理解成一个关系型数据库

  • ②. Type类型(es7会逐渐删除type,官方说在8.x版本会彻底移除type)

  1. ES 5.x中一个index可以有多种type
  2. ES 6.x中一个index只能有一种type
  3. ES 7.x以后要逐渐移除type这个概念
  • ③. Document文档
    保存在某个index下,某种type的一个数据document,文档是json格式的,document就像是mysql中的某个table里面的内容。每一行对应的列叫属性
Elasticsearch关系型数据库Mysql
索引(index)数据库(databases)
类型(type)表(table)
文档(document)行(row)

③. es - 详解倒排索引

  • ①. 下图是ElasticSearch的索引结构,下边黑色部分是物理结构,上边黄色部分是逻辑结构,逻辑结构也是为了更好的去描述ElasticSearch的工作原理及去使用物理结构中的索引文件
  • ②. 逻辑结构部分是一个倒排索引表:
  1. 将要搜索的文档内容分词,所有不重复的词组成分词列表
  2. 将搜索的文档最终以Document方式存储起来
  3. 每个词和docment都有关联
    如下:

  • ③. 为什么查询快?(它建立一个分词,并且分词和文档相关联)

解释何为倒排索引?
(1). 会有一个倒排索引表,首先对红海行动进行分词,分词后的数据插入到倒排索引表中。
保存的记录(红海行动、探索红海行动、红海特别行动、红海记录片、特工红海特别探索)
(2). 将内容分词就记录到索引中
(3). 检索:
红海特工行动?查出后计算相关性得分:3号(红海特别行动)记录命中了2次,且3号本身才有3个单词,2/3,所以3号最匹配。5号(特工红海特别探索)四个命中了2个

④. 安装elasticSearch、kibana 7.4.2

  • ①. 安装elasticSearch7.4.2详细步骤如下
1. 下载ealastic search(存储和检索)和kibana(可视化检索)
docker pull elasticsearch:7.4.2
docker pull kibana:7.4.2
版本要统一
2. 配置
# 将docker里的目录挂载到linux的/mydata目录中
# 修改/mydata就可以改掉docker里的
mkdir -p /mydata/elasticsearch/config
mkdir -p /mydata/elasticsearch/data

# es可以被远程任何机器访问
echo "http.host: 0.0.0.0" >/mydata/elasticsearch/config/elasticsearch.yml

# 递归更改权限,es需要访问
chmod -R 777 /mydata/elasticsearch/
3. 启动Elastic search
4. # 9200是用户交互端口 9300是集群心跳端口
# -e指定是单阶段运行
# -e指定占用的内存大小,生产时可以一般是32G的内存、我们可以将es设置大一些
docker run --name elasticsearch -p 9200:9200 -p 9300:9300 \\
-e  "discovery.type=single-node" \\
-e ES_JAVA_OPTS="-Xms64m -Xmx512m" \\
-v /mydata/elasticsearch/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml \\
-v /mydata/elasticsearch/data:/usr/share/elasticsearch/data \\
-v  /mydata/elasticsearch/plugins:/usr/share/elasticsearch/plugins \\
-d elasticsearch:7.4.2 
# 设置开机启动elasticsearch
docker update elasticsearch --restart=always

  • ②. 安装kibana 7.4.2详细步骤如下:
    http://192.168.56.10:9200一定要改成自己虚拟机的地址
docker pull kibana:7.4.2
# kibana指定了了ES交互端口9200  # 5600位kibana主页端口
docker run --name kibana -e ELASTICSEARCH_HOSTS=http://192.168.56.10:9200 -p 5601:5601 -d kibana:7.4.2
# 设置开机启动kibana
docker update kibana  --restart=always
# 访问Kibana: http://192.168.56.10:5601/app/kibana

⑤. 索引操作 - 创建、查看、删除

  • ①. 创建索引库:PUT /company-index
  • ②. 判断索引是否存在:HEAD /索引名称
# 200表示索引在es中存在
200 - OK
# 404表示索引在es中不存在
404 - Not Found
  • ③. 查看单个索引:GET /company-index

  • ④. 批量查看索引:GET /索引名称1,索引名称2,索引名称3…

  • ⑤. 查看所有索引

  1. GET _all
  2. GET /_cat/indices?v
  • ⑥. 打开和关闭索引(关闭后的索引不能搜索数据)
  1. POST /索引名称/_open
  2. POST /索引名称/_close
  • ⑦. 删除索引使用DELETE请求:DELETE /索引名称1,索引名称2,索引名称3…

⑥. 检索es基本信息

  • ①. GET /_cat/nodes:查看所有节点
127.0.0.1 16 94 3 0.01 0.03 0.05 dilm * f35e9eb81345
  • ②. GET /_cat/health:查看es健康状况
//注:green表示健康值正常
1647766085 08:48:05 elasticsearch yellow 1 1 5 5 0 0 2 0 - 71.4%
  • ③. GET /_cat/master:查看主节点
Kcb7reXVSEiIQL-gxvgdXg 127.0.0.1 127.0.0.1 f35e9eb81345
  • ④. GET /_cat/indices:查看所有索引,等价于mysql数据库的show databases;
green  open .kibana_task_manager_1   DhtDmKrsRDOUHPJm1EFVqQ 1 0 2 3 40.8kb 40.8kb
green  open .apm-agent-configuration vxzRbo9sQ1SvMtGkx6aAHQ 1 0 0 0   230b   230b
green  open .kibana_1                rdJ5pejQSKWjKxRtx-EIkQ 1 0 5 1 18.2kb 18.2kb
3个索引是kibana创建的

⑦. document - 增删改查文档

  • ①. 保存一个数据,保存在哪个索引的哪个类型下(哪张数据库哪张表下),保存时用唯一标识指定
  1. POST新增。如果不指定id,会自动生成id。指定id就会修改这个数据,并新增版本号
    可以不指定id,不指定id时永远为创建
    指定不存在的id为创建
    指定存在的id为更新(带了_update操作的),而版本号(_seq_no)会根据内容变没变而觉得版本号递增与否
  2. PUT可以新增也可以修改。PUT必须指定id;由于PUT需要指定id,我们一般用来做修改操作,不指定id会报错
    必须指定id、版本号总会增加
  3. put和java里map.put一样必须指定key-value。而post相当于mysql insert
# # 在customer索引下的external类型下保存1号数据
PUT customer/external/1
# POSTMAN输入
http://192.168.56.10:9200/customer/external/1

 "name":"John Doe"


    "_index": "customer",
    "_type": "external",
    "_id": "1",
    "_version": 1,
    "result": "created",
    "_shards": 
        "total": 2,
        "successful": 1,
        "failed": 0
    ,
    "_seq_no": 0,
    "_primary_term": 1

PUT /shoping
POST /shoping/_doc

  "title": "小米手机",
  "category": "小米",
  "images": "http://www.gulixueyuan.com/xm.jpg",
  "price": 3999

seq_no和version的区别:
(1). 每个文档的版本号"_version" 起始值都为1,每次对当前文档成功操作后都加1
(2). 而序列号"_seq_no"则可以看做是索引的信息 在第一次为索引插入数据时为0,每对索引内数据操作成功一次sqlNO加1,并且文档会记录是第几次操作使它成为现在的情况的

  • ②. 查看文档
GET /customer/external/1
http://192.168.56.10:9200/customer/external/1

    "_index": "customer",
    "_type": "external",
    "_id": "1",
    "_version": 10,
    "_seq_no": 18,//并发控制字段,每次更新都会+1,用来做乐观锁
    "_primary_term": 6,//同上,主分片重新分配,如重启,就会变化
    "found": true,
    "_source": 
        "name": "John Doe"
    

乐观锁用法:通过“if_seq_no=1&if_primary_term=1”,当序列号匹配的时候,才进行修改,否则不修改
实例:将id=1的数据更新为name=1,然后再次更新为name=2,起始1_seq_no=18,_primary_term=6
(1). 将name更新为1
PUT http://192.168.56.10:9200/customer/external/1?if_seq_no=18&if_primary_term=6

(2). 将name更新为2,更新过程中使用seq_no=18
PUT http://192.168.56.10:9200/customer/external/1?if_seq_no=18&if_primary_term=6
结果为:(出现更新错误)
(3). 查询新的数据 GET http://192.168.56.10:9200/customer/external/1

(4). 再次更新,更新成功
PUT http://192.168.56.10:9200/customer/external/1?if_seq_no=19&if_primary_term=1

  • ③. 更新文档
    带了_update的会去检查元数据,如果更新的数据和元数据对比没有变化,则不会叠加版本
# 对比原来的数据,与原来的数据一样就什么都不做,version、seq_no都不变
POST customer/external/1/_update

  "doc":
      "name":"111"
  


或者
//不会检查元数据,它的版本号都会更新,不断的叠加版本
POST customer/external/1

	"name":"222"

或者
PUT customer/external/1

	"name":"222"


# 更新同时增加属性,PUT和不带POST不带_update都可以
POST customer/external/1/_update

	"doc":"name":"Jane","age":26

  • ④. 删除文档或索引
DELETE customer/external/1
DELETE customer
:elasticsearch并没有提供删除类型的操作,只提供了删除索引和文档的操作。
实例:删除id=1的数据,删除后继续查询
DELETE http://192.168.56.10:9200/customer/external/1

    "_index": "customer",
    "_type": "external",
    "_id": "1",
    "_version": 14,
    "result": "deleted",
    "_shards": 
        "total": 2,
        "successful": 1,
        "failed": 0
    ,
    "_seq_no": 22,
    "_primary_term": 6

再次执行DELETE http://192.168.56.10:9200/customer/external/1

    "_index": "customer",
    "_type": "external",
    "_id": "1",
    "_version": 15,
    "result": "not_found",
    "_shards": 
        "total": 2,
        "successful": 1,
        "failed": 0
    ,
    "_seq_no": 23,
    "_primary_term": 6

GET http://192.168.56.10:9200/customer/external/1

    "_index": "customer",
    "_type": "external",
    "_id": "1",
    "found": false

删除索引
实例:删除整个costomer索引数据
删除前,所有的索引http://192.168.56.10:9200/_cat/indices
green  open .kibana_task_manager_1   DhtDmKrsRDOUHPJm1EFVqQ 1 0 2 0 31.3kb 31.3kb
green  open .apm-agent-configuration vxzRbo9sQ1SvMtGkx6aAHQ 1 0 0 0   283b   283b
green  open .kibana_1                rdJ5pejQSKWjKxRtx-EIkQ 1 0 8 3 28.8kb 28.8kb
yellow open customer                 mG9XiCQISPmfBAmL1BPqIw 1 1 9 1  8.6kb  8.6kb
删除“ customer ”索引
DELTE http://192.168.56.10:9200/customer
响应

    "acknowledged": true

删除后,所有的索引http://192.168.56.10:9200/_cat/indices
green open .kibana_task_manager_1   DhtDmKrsRDOUHPJm1EFVqQ 1 0 2 0 31.3kb 31.3kb
green open .apm-agent-configuration vxzRbo9sQ1SvMtGkx6aAHQ 1 0 0 0   283b   283b
green open .kibana_1                rdJ5pejQSKWjKxRtx-EIkQ 1 0 8 3 28.8kb 28.8kb
  • ⑤. ES的批量操作——bulk
    这里的批量操作,当发生某一条执行发生失败时,其他的数据仍然能够接着执行,也就是说彼此之间是独立的
实例1: 执行多条数据
POST /customer/external/_bulk
"index":"_id":"1"
"name":"John Doe"
"index":"_id":"2"
"name":"John Doe"
#! Deprecation: [types removal] Specifying types in bulk requests is deprecated.

  "took" : 318,  花费了多少ms
  "errors" : false, 没有发生任何错误
  "items" : [ 每个数据的结果
    
      "index" :  保存
        "_index" : "customer", 索引
        "_type" : "external", 类型
        "_id" : "1", 文档
        "_version" : 1, 版本
        "result" : "created", 创建
        "_shards" : 
          "total" : 2,
          "successful" : 1,
          "failed" : 0
        ,
        "_seq_no" : 0,
        "_primary_term" : 1,
        "status" : 201 新建完成
      
    ,
    
      "index" :  第二条记录
        "_index" : "customer",
        "_type" : "external",
        "_id" : "2",
        "_version" : 1,
        "result" : "created",
        "_shards" : 
          "total" : 2,
          "successful" : 1,
          "failed" : 0
        ,
        "_seq_no" : 1,
        "_primary_term" : 1,
        "status" : 201
      
    
  ]

实例2:对于整个索引执行批量操作
POST /_bulk
"delete":"_index":"website","_type":"blog","_id":"123"
"create":"_index":"website","_type":"blog","_id":"123"
"title":"my first blog post"
"index":"_index":"website","_type":"blog"
"title":"my second blog post"
"update":"_index":"website","_type":"blog","_id":"123"
"doc":"title":"my updated blog post"
运行结果:
以上是关于ElasticSearch01_简介详解倒排索引安装es以及kibana检索es基本信息增删改查文档的主要内容,如果未能解决你的问题,请参考以下文章

ElasticSearch01_简介详解倒排索引安装es以及kibana检索es基本信息增删改查文档

ElasticSearch01_简介详解倒排索引安装es以及kibana检索es基本信息增删改查文档

商城项目16_es简介详解倒排索引安装es以及kibana检索es基本信息增删改查文档

商城项目16_es简介详解倒排索引安装es以及kibana检索es基本信息增删改查文档

Elasticsearch倒排索引详解

Elasticsearch倒排索引详解