持续更新—Nginx日志分析方法
Posted 清晨丶暖阳
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了持续更新—Nginx日志分析方法相关的知识,希望对你有一定的参考价值。
一、shell脚本进行分析
1、grep和zgrep的使用
## zgrep用于查询普通文本信息
grep -nr "wrod" *.sh
## zgrep用于查询gz压缩文件数据信息
zgrep -e "GET /api" *.gz
2、cat和zcat的使用
## cat输出普通文件数据
cat test.txt
## zcat输出压缩文件数据(后缀:.gz)
zcat mysql.gz
3、怎么用于日志分析
## 创建压缩文件
tar czvf aaa.tar.gz
## 解压文件到当前目录
tar zxvf aaa.tar.gz
tar xjvf aaa.tar.bz
tar xvf aaa.tar
### 功能统计API接口的在2020.2.22的访问次数。
ls *access*.gz | xargs -I {} zgrep -E "/api/recommend.+utm_source=worlds[1|3|5|6|7|8]?" {} | grep "23/Jun/2021" | wc -l
## 统计2021.6.23这一天的访问次数
zcat *access*.gz | grep "23/Jun/2021" | wc -l
4、运用sed和awk进行日志分析
#查看当天访问页面排前10的
cat access.log | awk '{print $7}' | sort | uniq -c | sort -nr | head -n 10
#当天ip连接数,统计ip地址的总连接数
cat access.log | awk '{print $1}' | sort | uniq -c | sort -nr
#统计安卓或iPhone访问次数
cat access.log|grep iPhone |awk '{print $1}'|sort |uniq -c|sort -nr
以上是关于持续更新—Nginx日志分析方法的主要内容,如果未能解决你的问题,请参考以下文章