商城项目16_es简介详解倒排索引安装es以及kibana检索es基本信息增删改查文档
Posted 所得皆惊喜
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了商城项目16_es简介详解倒排索引安装es以及kibana检索es基本信息增删改查文档相关的知识,希望对你有一定的参考价值。
文章目录
- ①. es - 背景、概述、功能、场景
- ②. 核心概念 - 索引、类型、文档、映射
- ③. es - 详解倒排索引
- ④. 安装elasticSearch、kibana 7.4.2
- ⑤. 索引操作 - 创建、查看、删除
- ⑥. 检索es基本信息
- ⑦. document - 增删改查文档
①. es - 背景、概述、功能、场景
- ①. 背景:起源:Shay Banon。2004年失业,陪老婆去伦敦学习厨师。失业在家帮老婆写一个菜谱搜索引擎。封装了lucene,做出了开源项目compass找到。工作后,做分布式高性能项目,再封装compass,写出了elasticsearch,使得lucene支持分布式。现在是Elasticsearch创始人兼Elastic首席执行官(谢巴农)
- ②. Elaticsearch,简称为es,是一个基于Lucene的搜索服务器。它提供了一个分布式多用户功能的全文搜索引擎,基于Restful web接口。ElasticSearch是用java开发的,并作为Apache许可条款下的开放源码发布,是当前流行的企业级搜索引擎
- 9200:Restful - 端口为浏览器访问的 http协议RESTful端口
- http端口 9300:TCP端口- Elasticsearch集群间组件的通信端口
- Elasticsearch官网
- ③. Elasticsearch的功能
- 分布式的搜索引擎(搜索:百度、谷歌,站内搜索)
分布式:Elasticsearch自动将海量数据分散到多台服务器上去存储和检索 - 全文检索:提供模糊搜索等自动度很高的查询方式,并进行相关性排名,高亮等功能
- 数据分析引擎(分组聚合):电商网站,最近一周笔记本电脑这种商品销量排名top10的商家有哪些?新闻网站,最近1个月访问量排名top3的新闻板块是哪些
- 对海量数据进行近实时的处理
海量数据的处理:因为是分布式架构,Elasticsearch可以采用大量的服务器去存储和检索数据,自然而然就可以实现海量数据的处理
近实时:Elasticsearch可以实现秒级别的数据搜索和分析
- ④. Elasticsearch企业使用场景
- 搜索类场景:比如说电商网站、招聘网站、新闻资讯类网站、各种app内的搜索
- 日志分析类场景:经典的ELK组合(Elasticsearch/Logstash/Kibana),可以完成日志收集,日志存储,日志分析查询界面基本功能,目前该方案的实现很普及,大部分企业日志分析系统使用了该方案
- 数据预警平台及数据分析场景
例如电商价格预警,在支持的电商平台设置价格预警,当优惠的价格低于某个值时,触发通知消息,通知用户购买
数据分析常见的比如分析电商平台销售量top 10的品牌,分析博客系统、头条网站top 10关注度、评论数、访问量的内容等
②. 核心概念 - 索引、类型、文档、映射
-
①. index索引
类似的数据放在一个索引,非类似的数据放不同索引, 一个索引也可以理解成一个关系型数据库 -
②. Type类型(es7会逐渐删除type,官方说在8.x版本会彻底移除type)
- ES 5.x中一个index可以有多种type
- ES 6.x中一个index只能有一种type
- ES 7.x以后要逐渐移除type这个概念
- ③. Document文档
保存在某个index下,某种type的一个数据document,文档是json格式的,document就像是mysql中的某个table里面的内容。每一行对应的列叫属性
Elasticsearch | 关系型数据库Mysql |
---|---|
索引(index) | 数据库(databases) |
类型(type) | 表(table) |
文档(document) | 行(row) |
③. es - 详解倒排索引
- ①. 下图是ElasticSearch的索引结构,下边黑色部分是物理结构,上边黄色部分是逻辑结构,逻辑结构也是为了更好的去描述ElasticSearch的工作原理及去使用物理结构中的索引文件
- ②. 逻辑结构部分是一个倒排索引表:
- 将要搜索的文档内容分词,所有不重复的词组成分词列表
- 将搜索的文档最终以Document方式存储起来
- 每个词和docment都有关联
如下:
- ③. 为什么查询快?(它建立一个分词,并且分词和文档相关联)
解释何为倒排索引?
(1). 会有一个倒排索引表,首先对红海行动进行分词,分词后的数据插入到倒排索引表中。
保存的记录(红海行动、探索红海行动、红海特别行动、红海记录片、特工红海特别探索)
(2). 将内容分词就记录到索引中
(3). 检索:
红海特工行动?查出后计算相关性得分:3号(红海特别行动)记录命中了2次,且3号本身才有3个单词,2/3,所以3号最匹配。5号(特工红海特别探索)四个命中了2个
④. 安装elasticSearch、kibana 7.4.2
- ①. 安装elasticSearch7.4.2详细步骤如下
1. 下载ealastic search(存储和检索)和kibana(可视化检索)
docker pull elasticsearch:7.4.2
docker pull kibana:7.4.2
版本要统一
2. 配置
# 将docker里的目录挂载到linux的/mydata目录中
# 修改/mydata就可以改掉docker里的
mkdir -p /mydata/elasticsearch/config
mkdir -p /mydata/elasticsearch/data
# es可以被远程任何机器访问
echo "http.host: 0.0.0.0" >/mydata/elasticsearch/config/elasticsearch.yml
# 递归更改权限,es需要访问
chmod -R 777 /mydata/elasticsearch/
3. 启动Elastic search
4. # 9200是用户交互端口 9300是集群心跳端口
# -e指定是单阶段运行
# -e指定占用的内存大小,生产时可以一般是32G的内存、我们可以将es设置大一些
docker run --name elasticsearch -p 9200:9200 -p 9300:9300 \\
-e "discovery.type=single-node" \\
-e ES_JAVA_OPTS="-Xms64m -Xmx512m" \\
-v /mydata/elasticsearch/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml \\
-v /mydata/elasticsearch/data:/usr/share/elasticsearch/data \\
-v /mydata/elasticsearch/plugins:/usr/share/elasticsearch/plugins \\
-d elasticsearch:7.4.2
# 设置开机启动elasticsearch
docker update elasticsearch --restart=always
- ②. 安装kibana 7.4.2详细步骤如下:
http://192.168.56.10:9200一定要改成自己虚拟机的地址
docker pull kibana:7.4.2
# kibana指定了了ES交互端口9200 # 5600位kibana主页端口
docker run --name kibana -e ELASTICSEARCH_HOSTS=http://192.168.56.10:9200 -p 5601:5601 -d kibana:7.4.2
# 设置开机启动kibana
docker update kibana --restart=always
# 访问Kibana: http://192.168.56.10:5601/app/kibana
⑤. 索引操作 - 创建、查看、删除
- ①. 创建索引库:PUT /company-index
- ②. 判断索引是否存在:HEAD /索引名称
# 200表示索引在es中存在
200 - OK
# 404表示索引在es中不存在
404 - Not Found
-
③. 查看单个索引:GET /company-index
-
④. 批量查看索引:GET /索引名称1,索引名称2,索引名称3…
-
⑤. 查看所有索引
- GET _all
- GET /_cat/indices?v
- ⑥. 打开和关闭索引(关闭后的索引不能搜索数据)
- POST /索引名称/_open
- POST /索引名称/_close
- ⑦. 删除索引使用DELETE请求:DELETE /索引名称1,索引名称2,索引名称3…
⑥. 检索es基本信息
- ①. GET /_cat/nodes:查看所有节点
127.0.0.1 16 94 3 0.01 0.03 0.05 dilm * f35e9eb81345
- ②. GET /_cat/health:查看es健康状况
//注:green表示健康值正常
1647766085 08:48:05 elasticsearch yellow 1 1 5 5 0 0 2 0 - 71.4%
- ③. GET /_cat/master:查看主节点
Kcb7reXVSEiIQL-gxvgdXg 127.0.0.1 127.0.0.1 f35e9eb81345
- ④. GET /_cat/indices:查看所有索引,等价于mysql数据库的show databases;
green open .kibana_task_manager_1 DhtDmKrsRDOUHPJm1EFVqQ 1 0 2 3 40.8kb 40.8kb
green open .apm-agent-configuration vxzRbo9sQ1SvMtGkx6aAHQ 1 0 0 0 230b 230b
green open .kibana_1 rdJ5pejQSKWjKxRtx-EIkQ 1 0 5 1 18.2kb 18.2kb
这3个索引是kibana创建的
⑦. document - 增删改查文档
- ①. 保存一个数据,保存在哪个索引的哪个类型下(哪张数据库哪张表下),保存时用唯一标识指定
- POST新增。如果不指定id,会自动生成id。指定id就会修改这个数据,并新增版本号
可以不指定id,不指定id时永远为创建
指定不存在的id为创建
指定存在的id为更新(带了_update操作的),而版本号(_seq_no)会根据内容变没变而觉得版本号递增与否 - PUT可以新增也可以修改。PUT必须指定id;由于PUT需要指定id,我们一般用来做修改操作,不指定id会报错
必须指定id、版本号总会增加 - put和java里map.put一样必须指定key-value。而post相当于mysql insert
# # 在customer索引下的external类型下保存1号数据
PUT customer/external/1
# POSTMAN输入
http://192.168.56.10:9200/customer/external/1
"name":"John Doe"
"_index": "customer",
"_type": "external",
"_id": "1",
"_version": 1,
"result": "created",
"_shards":
"total": 2,
"successful": 1,
"failed": 0
,
"_seq_no": 0,
"_primary_term": 1
PUT /shoping
POST /shoping/_doc
"title": "小米手机",
"category": "小米",
"images": "http://www.gulixueyuan.com/xm.jpg",
"price": 3999
seq_no和version的区别:
(1). 每个文档的版本号"_version" 起始值都为1,每次对当前文档成功操作后都加1
(2). 而序列号"_seq_no"则可以看做是索引的信息 在第一次为索引插入数据时为0,每对索引内数据操作成功一次sqlNO加1,并且文档会记录是第几次操作使它成为现在的情况的
- ②. 查看文档
GET /customer/external/1
http://192.168.56.10:9200/customer/external/1
"_index": "customer",
"_type": "external",
"_id": "1",
"_version": 10,
"_seq_no": 18,//并发控制字段,每次更新都会+1,用来做乐观锁
"_primary_term": 6,//同上,主分片重新分配,如重启,就会变化
"found": true,
"_source":
"name": "John Doe"
乐观锁用法:通过“if_seq_no=1&if_primary_term=1”,当序列号匹配的时候,才进行修改,否则不修改
实例:将id=1的数据更新为name=1,然后再次更新为name=2,起始1_seq_no=18,_primary_term=6
(1). 将name更新为1
PUT http://192.168.56.10:9200/customer/external/1?if_seq_no=18&if_primary_term=6
(2). 将name更新为2,更新过程中使用seq_no=18
PUT http://192.168.56.10:9200/customer/external/1?if_seq_no=18&if_primary_term=6
结果为:(出现更新错误)
(3). 查询新的数据 GET http://192.168.56.10:9200/customer/external/1
(4). 再次更新,更新成功
PUT http://192.168.56.10:9200/customer/external/1?if_seq_no=19&if_primary_term=1
- ③. 更新文档
带了_update的会去检查元数据,如果更新的数据和元数据对比没有变化,则不会叠加版本
# 对比原来的数据,与原来的数据一样就什么都不做,version、seq_no都不变
POST customer/external/1/_update
"doc":
"name":"111"
或者
//不会检查元数据,它的版本号都会更新,不断的叠加版本
POST customer/external/1
"name":"222"
或者
PUT customer/external/1
"name":"222"
# 更新同时增加属性,PUT和不带POST不带_update都可以
POST customer/external/1/_update
"doc":"name":"Jane","age":26
- ④. 删除文档或索引
DELETE customer/external/1
DELETE customer
注:elasticsearch并没有提供删除类型的操作,只提供了删除索引和文档的操作。
实例:删除id=1的数据,删除后继续查询
DELETE http://192.168.56.10:9200/customer/external/1
"_index": "customer",
"_type": "external",
"_id": "1",
"_version": 14,
"result": "deleted",
"_shards":
"total": 2,
"successful": 1,
"failed": 0
,
"_seq_no": 22,
"_primary_term": 6
再次执行DELETE http://192.168.56.10:9200/customer/external/1
"_index": "customer",
"_type": "external",
"_id": "1",
"_version": 15,
"result": "not_found",
"_shards":
"total": 2,
"successful": 1,
"failed": 0
,
"_seq_no": 23,
"_primary_term": 6
GET http://192.168.56.10:9200/customer/external/1
"_index": "customer",
"_type": "external",
"_id": "1",
"found": false
删除索引
实例:删除整个costomer索引数据
删除前,所有的索引http://192.168.56.10:9200/_cat/indices
green open .kibana_task_manager_1 DhtDmKrsRDOUHPJm1EFVqQ 1 0 2 0 31.3kb 31.3kb
green open .apm-agent-configuration vxzRbo9sQ1SvMtGkx6aAHQ 1 0 0 0 283b 283b
green open .kibana_1 rdJ5pejQSKWjKxRtx-EIkQ 1 0 8 3 28.8kb 28.8kb
yellow open customer mG9XiCQISPmfBAmL1BPqIw 1 1 9 1 8.6kb 8.6kb
删除“ customer ”索引
DELTE http://192.168.56.10:9200/customer
响应
"acknowledged": true
删除后,所有的索引http://192.168.56.10:9200/_cat/indices
green open .kibana_task_manager_1 DhtDmKrsRDOUHPJm1EFVqQ 1 0 2 0 31.3kb 31.3kb
green open .apm-agent-configuration vxzRbo9sQ1SvMtGkx6aAHQ 1 0 0 0 283b 283b
green open .kibana_1 rdJ5pejQSKWjKxRtx-EIkQ 1 0 8 3 28.8kb 28.8kb
- ⑤. ES的批量操作——bulk
这里的批量操作,当发生某一条执行发生失败时,其他的数据仍然能够接着执行,也就是说彼此之间是独立的
实例1: 执行多条数据
POST /customer/external/_bulk
"index":"_id":"1"
"name":"John Doe"
"index":"_id":"2"
"name":"John Doe"
#! Deprecation: [types removal] Specifying types in bulk requests is deprecated.
"took" : 318, 花费了多少ms
"errors" : false, 没有发生任何错误
"items" : [ 每个数据的结果
"index" : 保存
"_index" : "customer", 索引
"_type" : "external", 类型
"_id" : "1", 文档
"_version" : 1, 版本
"result" : "created", 创建
"_shards" :
"total" : 2,
"successful" : 1,
"failed" : 0
,
"_seq_no" : 0,
"_primary_term" : 1,
"status" : 201 新建完成
,
"index" : 第二条记录
"_index" : "customer",
"_type" : "external",
"_id" : "2",
"_version" : 1,
"result" : "created",
"_shards" :
"total" : 2,
"successful" : 1,
"failed" : 0
,
"_seq_no" : 1,
"_primary_term" : 1,
"status" : 201
]
实例2:对于整个索引执行批量操作
POST /_bulk
"delete":"_index":"website","_type":"blog","_id":"123"
"create":"_index":"website","_type":"blog","_id":"123"
"title":"my first blog post"
"index":"_index":"website","_type":"blog"
"title":"my second blog post"
"update":"_index":"website","_type":"blog","_id":"123"
"doc":"title":"my updated blog post"
运行结果:
以上是关于商城项目16_es简介详解倒排索引安装es以及kibana检索es基本信息增删改查文档的主要内容,如果未能解决你的问题,请参考以下文章
ElasticSearch01_简介详解倒排索引安装es以及kibana检索es基本信息增删改查文档
ElasticSearch01_简介详解倒排索引安装es以及kibana检索es基本信息增删改查文档
ElasticSearch01_简介安装es以及kibana详解倒排索引检索es基本信息增删改查文档