spark-shell读取.log文件获取日志信息后,怎么进行分析?比如统计包含404的行数

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark-shell读取.log文件获取日志信息后,怎么进行分析?比如统计包含404的行数相关的知识,希望对你有一定的参考价值。

用spark-shell去进行日志信息的统计的话,首先第一步就是创建rdd,将数据加载进去。
第二步,就是进行map操作,然后调用filter进行过滤,包含404的页面,然后调用count进行统计行数。

当然,如果你要进行更详细的统计,或者操作(如果你的log,每列数量都相同的话),可以使用java编写自定义的日志处理类,然后在map的时候,对log进行操作。
参考技术A awk命令去处理

以上是关于spark-shell读取.log文件获取日志信息后,怎么进行分析?比如统计包含404的行数的主要内容,如果未能解决你的问题,请参考以下文章

Python读取配置文件方式打印日志

log日志重定向

获取系统日志信息

SpringBoot日志配置文件不生效

python获取nginx子请求

logstash获取异常日志推送钉钉