故障报告分析和纠正措施系统 FRACAS工作程序和要求

Posted AbelZ_01

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了故障报告分析和纠正措施系统 FRACAS工作程序和要求相关的知识,希望对你有一定的参考价值。

故障信息传递和故障件处理的流程图见下图:

一、故障报告
(1)故障报告的范围
军工产品在研制过程中发生的所有故障和重大质量问题等(以下简称为故障)都应及时记录,并填写故障报告表。
(2)故障报告的内容
故障报告的内容应能完整、真实地反映故障发生时的一切情况,一般包括:
a.产品发生故障的时间、地点及何种试验;
b.发生故障时产品所处的工作状态及环境条件等;
c.故障产品的详细描述;
d.故障现象和特征的详细描述;
e.故障的观测者及观测故障时的环境条件
(3)故障报告的要求
故障报告一般应满足如下要求:
a.各产品研制单位应根据实际情况,制定统一的故障报告的表格,以便对故障报告进行传递、统计处理和储存(表样见GJB 841附件);
b.产品的故障报告应按不同的层次(如总体、系统、设备、部组件等)和故障的严重等级规定故障报告应报告到哪一级;
c.故障报告应规定报告的时限,如重大故障应在多少小时内报到最高管理级,一般故障应在多少小时内报告到规定的管理级等;
d.供方在产品研制过程中出现的一般故障由各单位自行处理,但应经常与总体单位保持联系,通报故障的处理情况。
(4)故障的核实
有关职能部门接到故障报告后,应根据故障等级和故障报告的详细程度,对故障情况进行调查,对故障报告的准确性进行核实。一般应做以下工作:
a&#x

原版Filebeat+ELK

在日常运维工作中,对于系统和业务日志的处理尤为重要。今天,在这里分享一下自己部署的Filebeat+ELK开源实时日志分析平台的记录过程,有不对的地方还望指出。

简单介绍:

日志主要包括系统日志、应用程序日志和安全日志。系统运维和开发人员可以通过日志了解服务器软硬件信息、检查配置过程中的错误及错误发生的原因。经常分析日志可以了解服务器的负荷,性能安全性,从而及时采取措施纠正错误。

通常,日志被分散的储存不同的设备上。如果你管理数十上百台服务器,你还在使用依次登录每台机器的传统方法查阅日志。这样是不是感觉很繁琐和效率低下。当务之急我们使用集中化的日志管理,例如:开源的syslog,将所有服务器上的日志收集汇总。

集中化管理日志后,日志的统计和检索又成为一件比较麻烦的事情,一般我们使用grep、awk和wc等Linux命令能实现检索和统计,但是对于要求更高的查询、排序和统计等要求和庞大的机器数量依然使用这样的方法难免有点力不从心。

Filebeat+ELK是四个开源工具组成,简单解释如下:

Filebeat:ELK 协议栈的新成员,一个轻量级开源日志文件数据搜集器,基于 Logstash-Forwarder 源代码开发,是对它的替代。在需要采集日志数据的 server 上安装 Filebeat,并指定日志目录或日志文件后,Filebeat就能读取数据,迅速发送到 Logstash 进行解析,亦或直接发送到 Elasticsearch 进行集中式存储和分析。

Elasticsearch:是个开源分布式搜索引擎,它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。

Logstash:是一个完全开源的工具,它可以对你的日志进行收集、过滤,并将其存储供以后使用(如,搜索)。

Kibana:也是一个开源和免费的工具,它可以为 Logstash 和 ElasticSearch 提供的日志分析友好的Web 界面,可以帮助您汇总、分析和搜索重要数据日志。

这里之所以用Filebeat+ELK是因为Filebeat相对于logstash而言,更轻量级,占用系统资源少。

实验拓扑图

技术图片

 环境信息:

操作系统 ip地址 软件
centos6.9 10.104.34.101 filebeat6.2.4
centos6.8 10.135.67.165 Logstash6.2.4
centos6.8 10.135.67.165 Elasticsearch6.2.4
centos6.8 10.135.173.165 Kibana6.2.4

 

 

 

 

 我这里把elasticsearch和logstash部署在同一台服务器上了。

安装步骤:

1、配置Java环境:(安装elasticsearch的时候需要有Java环境,jdk可以去oracle官方网站下载,版本号可以和我的不一样)

#rpm -ivh jdk-8u102-linux-x64.rpm

技术图片

2、安装elasticsearch:

#wget -P /usr/local/src/ https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-6.2.4.tar.gz
#cd /usr/local/src
#tar xvf elasticsearch-6.2.4.tar.gz
#cp elasticsearch-6.2.4/config/elasticsearch.yml elasticsearch-6.2.4/config/elasticsearch.yml.default   --备份elasticsearch的默认配置文件,以防止修改时出错

 技术图片

bootstrap.memory_lock: false

bootstrap.system_call_filter: false

这两行配置主要是为了解决之后启动elasticsearch会报检测失败的一个错,报错内容如下:

ERROR: bootstrap checks failed
system call filters failed to install; check the logs and fix your configuration or disable system call filters at your own risk
原因:这是在因为Centos6不支持SecComp,而ES5.2.0版本之后默认bootstrap.system_call_filter为true进行检测,所以导致检测失败,失败后直接导致ES不能启动。

添加elastic用户,tar包启动必须使用普通用户运行

#useradd elastic
#chown -R elastic. /usr/local/src/elasticsearch-6.2.4

 打开sysctl.conf文件,添加如下内容:

#vim /etc/sysctl.conf
 vm.max_map_count = 655360
#sysctl -p /etc/sysctl.conf

打开/etc/security/limits.conf文件,修改打开文件句柄数

技术图片
#vim /etc/security/limits.conf  --添加如下内容
 * soft nofile 65536
 * hard nofile 65536
 * soft nproc 65536
 * hard nproc 65536
切换到elastic普通用户
#su - elastic
$cd /usr/local/src/elasticsearch-6.2.4
$./bin/elasticsearch
技术图片

技术图片

 第一次启动需要一些时间,因为需要做一些初始化动作,如果没启动成功请查系elasticsearch的相关日志解决。注意上面只是前台启动调试,在后台需要加&,需要重新启动。

查看端口是否开启:

技术图片

curl简单的测试下:

技术图片

3、安装logstash

#wget -P /usr/local/src https://artifacts.elastic.co/downloads/logstash/logstash-6.2.4.tar.gz
#cd /usr/local/src/
#tar xvf logstash-6.2.4.tar.gz

 

4、安装filebeat

#wget -P /usr/local/src https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-6.2.4-linux-x86_64.tar.gz
#cd /usr/local/src
#tar xvf filebeat-6.2.4-linux-x86_64.tar.gz
#cp /usr/local/src/filebeat-6.2.4/filebeat.yml /usr/local/src/filebeat-6.2.4/filebeat.yml.default

 编辑filebeat.yml文件,内容如下:

技术图片

启动filebeat服务:

#cd /usr/local/src/filebeat-6.2.4
#./filebeat &  --在后台运行

 注意:filebeat没有监听端口,主要看日志和进程,filebeat监听的文件记录信息在/usr/local/src/filebeat-6.2.4/data/registry里面

技术图片

然后新建一个logstash启动指定logstash.conf的配置文件,内容如下:

技术图片

这里我们只配置了input和output部分,其实Logstash默认有input、filter、output三个区域,但一般至少配置input和output部分就够了,并且logstash的默认配置文件logstash.yml我们选择不修改就行。

下面我们启动logstash,然后进行先进行简单的测试:

#cd /usr/local/src/logstash-6.2.4
#./bin/logstash -e ‘input { stdin { } } output { stdout { } }‘ --先进行不指定配置文件测试
当我们输入hello world的时候,对应的下面也会输出

技术图片

接下来指定配置文件logstash.conf进行测试:

#cd /usr/local/src/logstash-6.2.4
#./bin/logstash -f config/logstash.conf   --这里我们先前台启动方便调试,待调试成功后再后台启动

技术图片

这个启动完一会后会输出如下数据,这些数据就是filebeat从access.log里采集过来的日志,其实这些数据也输入到了elasticsearch当中,可以用curl http://ip:9200/_search?pretty

进行验证(ip为elasticsearch的ip)

技术图片

当然我们也可以看到对应的端口9600和5044是开启的

技术图片

5、安装kibana

#wget -P /usr/local/src https://artifacts.elastic.co/downloads/kibana/kibana-6.2.4-linux-x86_64.tar.gz
#cd /usr/local/src
#tar xvf kibana-6.2.4-linux-x86_64.tar.gz
#cp kibana-6.2.4-linux-x86_64/config/kibana.yml  kibana-6.2.4-linux-x86_64/config/kibana.yml.default

编辑kibana的配置文件

技术图片

这里server.host理论上来说配置成本服务器的外网ip即可,但是我用的云服务器,配置成相应的外网ip在启动的时候会报无法分配对应的ip地址,至于是什么原因我也没搞明白,但是配置成0.0.0.0后就可

以正常启动。

 技术图片

打开浏览器输入:http://ip:5601(ip为kibana的外网ip地址)

技术图片

进来之后首先创建一个索引,然后输入

 技术图片

点击Discover可以看到采集的日志已经到kibana这里来了,至此,filebeat+elk日志分析系统就搭建完了,还有许多高级功能需不断学习。

技术图片

 

以上是关于故障报告分析和纠正措施系统 FRACAS工作程序和要求的主要内容,如果未能解决你的问题,请参考以下文章

安全事件管理制度

Windows10-ELK安装配置

windows 10下ELK环境快速搭建实践

故障原因归类分析及预防和应对措施

MS Access 报告分组

原版Filebeat+ELK