ELK实战,Linux版docker安装ElasticSearchES-headLogstashKiabana入门,无坑详细图解

Posted 弘影源地

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了ELK实战,Linux版docker安装ElasticSearchES-headLogstashKiabana入门,无坑详细图解相关的知识,希望对你有一定的参考价值。

        项目需要,记录一次ELK日志分析系统无坑初始安装过程,并给大家整理出了操作elasticsearch的主要命令,elasticsearch!伙伴们都懂得哦!别的不多说,看过内容概览,直接开整!!!

一、系统调优 

1-1 修改/etc/security/limits.conf

limits.conf文件限制着用户可以使用的最大文件数,最大线程,最大内存等资源使用量,在最后追加内容: 

* hard nofile 65535  # *允许es启动用户

* soft nofile 65535

es - nproc 4096     # es可以当启动用户启动用户

说明:soft是一个警告值,而hard则是一个真正意义的阀值,超过就会报错

1-2 修改/etc/sysctl.conf 

追加内容: 

vm.max_map_count=262144

 1-3 执行下面命令,修改内核参数马上生效,

/sbin/sysctl -p

 对应的/proc/sys/vm/max_map_count会自动修改数值。

 二、Elasticsearch安装

2-1 初次创建elasticsearch容器

2-1-1 下载镜像

docker pull elasticsearch:7.3.0

 2-1-2 创建elasticsearch容器,映射9200,9300端口,指定环境变量discovery.type,这个很重要,否则无法启动

docker run -di --name elasticsearch -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" -e ES_JAVA_OPTS="-Xms512m -Xmx512m" 镜像名字或ID

2-1-3 防火墙放行9200端口 

firewall-cmd --zone=public --add-port=9200/tcp --permanent

firewall-cmd --reload

firewall-cmd --list-ports

2-1-4 访问IP地址:9200,测试是否启动成功 

2-2 使9300端口有效 

2-2-1 进入容器:

docker exec -it 容器名称或者id /bin/bash

此时,我们看到elasticsearch所在的目录为/usr/share/elasticsearch

2-2-2 进入config看到了配置文件elasticsearch.yml 

此处有多种方式修改elasticsearch.yml配置文件,推荐拷贝出来到宿主机上,然后进行目录挂载

2-2-3 拷贝容器内elasticsearch.yml文件到宿主机, 前提条件是:

###容器必须是运行中

###退出容器内部

 exit

 ###宿主机的目录已经创建好

执行拷贝 

docker cp 必须是容器名称:/usr/share/elasticsearch/config/elasticsearch.yml /usr/local/elasticsearch/config/elasticsearch.yml

注意:前面的路径是容器内的,后面的路径是宿主机的

 2-2-4 停止和删除现在运行中的elasticsearch容器

 2-2-5 修改/usr/local/elasticsearch/elasticsearch.yml

cluster.name: "docker-cluster"

network.host: 0.0.0.0

http.port: 9200

transport.tcp.port: 9300

http.cors.enabled: true

http.cors.allow-origin: "*"

2-3 二次创建elasticsearch容器 

2-3-1 本地创建es挂载目录,并赋予各目录777权限

chmod 777 /usr/local/elasticsearch/plugins

chmod 777 /usr/local/elasticsearch/data

chmod 777 /usr/local/elasticsearch/config

2-3-2 二次创建elasticsearch容器 

docker run -di \\

--name elasticsearch \\

-p 9200:9200 \\

-p 9300:9300 \\

-e "discovery.type=single-node" \\

-e ES_JAVA_OPTS="-Xms512m -Xmx512m" \\

-v /usr/local/elasticsearch/data:/usr/share/elasticsearch/data \\

-v /usr/local/elasticsearch/plugins:/usr/share/elasticsearch/plugins \\

-v /usr/local/elasticsearch/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml \\

镜像名字或ID

2-3-3 再次访问:IP+9200 

2-4 向容器中添加ik分词器

此处要注意版本,要和elasticsearch版本一致,此处为7.3.0

2-4-1 ik分词器下载地址

和本例elasticsearch版本配套,已设置好

百度网盘链接:https://pan.baidu.com/s/1K2mWiiH_JxyXsJVaAoWcvQ

提取码:7zge

2-4-2 将ik文件夹上传至宿主机elasticsearch挂载目录

2-4-3 进入容器查看:

docker exec -it 容器名或者id /bin/bash 

2-4-4 设置自定义词库:此步骤可以根据自己的需要设定词库,如果设置的话在上传ik文件夹之前完成设置

2-4-5 从新启动容器

 三、elasticsearch-header安装

3-1 下载镜像

docker pull wallbase/elasticsearch-head:6-alpine

3-2 修改/usr/local/elasticsearch/elasticsearch.yml文件,添加跨域支持,本例前面已经添加过,没有添加的可以在此处补上 

#开启cors跨域访问支持,默认为false

http.cors.enabled: true

#跨域访问允许的域名地址,(允许所有域名)以上使用正则

http.cors.allow-origin: /.*/

3-3 创建elasticsearch-head容器

docker run -di --name=elasticsearch-head -p 9100:9100 容器名称或ID

3-4 访问IP+9100

四、Logstash安装 

4-1 拉取镜像

docker pull logstash:7.3.0

4-2 创建容器并启动logstash 

docker run -di -p 5044:5044 -p 9600:9600 --name logstash 容器名称或ID

4-3 拷贝容器内的config文件夹到到宿主机,以便将来在宿主机中直接修改logstash配置 

语法:docker cp 容器名称或ID:容器内路径 宿主机路径

docker cp logstash:/usr/share/logstash/config/ /usr/local/logstash/

 本例侧重先把logstash部署起来,故先只修改一个配置文件logstash.yml,其它配置文件的修改,在以后的logstash具体配置时详述

 http.host: "0.0.0.0"

xpack.monitoring.elasticsearch.hosts: [ "http://自己的elasticsearch的ip:9200" ]

 4-4 删除容器

4-5 再次创建带宿主机配置文件的容器 

docker run \\

-di \\

--name logstash \\

-p 5044:5044 \\

-p 9600:9600 \\

-v /usr/local/logstash/config/logstash.yml:/usr/share/logstash/config/logstash.yml \\

-v /usr/local/logstash/config/jvm.options:/usr/share/logstash/config/jvm.options \\

-v /usr/local/logstash/config/logstash-sample.conf:/usr/share/logstash/config/logstash-sample.conf \\

-v /usr/local/logstash/config/pipelines.yml:/usr/share/logstash/config/pipelines.yml \\

容器名称或id

4-6 查看logstash启动成功信息

docker logs -f logstash

五、kibana安装 

5-1 拉取镜像

docker pull kibana:7.3.0

5-2 创建容器 

docker run -di --name kibana -e ELASTICSEARCH_URL=http://192.168.0.142:9200 -p 5601:5601 kibana:7.3.0

本例没有进行配置文件挂载,采取的创建容器添加环境变量-e的方式直接指定elasticsearch的ip

5-3 修改配置文件

进入容器config目录下进行kibana.yml文件修改,把elasticsearch的地址修改成部署的elasticsearch地址

 docker exec -it --user root kibana bash

vi kibana.yml

5-4 退出并重启kibana容器

5-5 访问地址

 http://192.168.0.142:5601/

至此,完成elasticsearch、logstash、kibana基础安装,后续将会对ELK进行深入配置。 

六、操作elasticsearch主要命令

6-1 操作-索引及映射

注释

#

创建索引

PUT /索引名称

空索引,没有设置和映射

PUT /索引名称

  "settings":

    设置内容

  ,

  "mappings":

    "properties":

      字段设定

   

 

不推荐:带设置和映射的索引

PUT /索引名称

  "settings":

    设置内容

  ,

  "mappings":

    "properties":

      "字段名":

        "type": "数据类型",

        "analyzer": "分词器类型"

     

   

 

推荐:设置+映射+字段指定分词器的索引

分词器类型---内置

standard:英文按照单词切分,并小写处理

whitespace:按照空格切分,不转小写

keyword:不分词,直接将输入作为分词

分词器类型---插件---ik分词器

ik_smart:粗颗粒度分词

ik_max_word:细颗粒度分词

查看索引

GET /索引名称

查看索引映射

GET /索引名称/_mapping

查看所有索引

GET /_cat/indices

?v:以表格形式查看

删除索引

DELETE /索引名称

DELETE /* 删除所有索引,慎用,会导致kibana不能用,重启后才可用

6-2 操作-文档

注释

#

插入一条文档

PUT /索引名称/_doc/文档id

数据定义

指定id方式

POST /索引名称/_doc/

数据定义

自动生成id方式,数据定义中不要写id字段

根据id查看文档

GET /索引名称/_doc/文档id

根据id删除文档

DELETE /索引名称/_doc/文档id

更新文档

PUT /索引名称/_doc/文档id

要更新的数据

不保留原始数据,先删除原始数据,然后再插入一条新数据

POST /索引名称/_doc/文档id/_update

  "doc":

    要更新的数据

 

保留原始数据进行更新

批量操作

POST /索引名称/_doc/_bulk

"index":id的生成方式

定义json格式数据

"index":id的生成方式

定义json格式数据

后面多条批量操作依次类推......

批量添加文档数据

6-3 操作-分词器

查看分词器效果

POST /_analyze

  "analyzer": "分词器类型",

  "text": "测试文字内容"

分词器类型---内置

standard:英文按照单词切分,并小写处理

whitespace:按照空格切分,不转小写

keyword:不分词,直接将输入作为分词

分词器类型---插件---ik分词器

ik_smart:粗颗粒度分词

ik_max_word:细颗粒度分词

6-4 操作-查询

注释

#

查询所有文档

GET /索引名称/_search

  "query": "match_all":

返回值说明:

took:查询时间,单位毫秒

_shards:分片情况

Hits:结果集数组

关键字查询

GET /索引名称/_search

  "query":

    "term":

      "字段名称":

        "value": "关键字"

     

   

 

没有使用ik分词器情况下,默认分词的关键字分词说明:

1、text类型:中文单个字进行分词,英文单个单词分词

2、不分词类型:除text类型外的其它类型都不分词,查询的话要把不同类型的关键字都写全才可以

过滤查询

GET /索引名称/_search

  "query":

    "bool":

      "must": [

       

          查询方式:全部/关键字查询...等

       

      ],

      "filter": [

       

          过滤方式:单条件/多条件…等

       

      ]

   

 

执行流程:

先过滤之后,在进行查询,适用数据量大的场景下

查询方式:

过滤方式:

以上是关于ELK实战,Linux版docker安装ElasticSearchES-headLogstashKiabana入门,无坑详细图解的主要内容,如果未能解决你的问题,请参考以下文章

FineUICore基础版部署到docker实战

ELK-elasticsearch-6.3.2部署

docker-compose安装ELK

在linux中快速使用docker搭建ELK日志监控分析系统

实战本机用docker搭建elk环境并接入frostmourne,实现监控报警效果

ELK实战-kibana安装