基于hadoop的nginx访问日志分析---计算日pv
Posted 飘
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了基于hadoop的nginx访问日志分析---计算日pv相关的知识,希望对你有一定的参考价值。
代码:
# pv_day.py
#!/usr/bin/env python # coding=utf-8 from mrjob.job import MRJob from nginx_accesslog_parser import NginxLineParser class PvDay(MRJob): nginx_line_parser = NginxLineParser() def mapper(self, _, line): self.nginx_line_parser.parse(line) day, _ = str(self.nginx_line_parser.time_local).split() yield day, 1 # 每一天的 def reducer(self, key, values): yield key, sum(values) def main(): PvDay.run() if __name__ == ‘__main__‘: main()
代码解释:
定义了一个集成MRJob类的job类,这个类包含定义好的steps。
一个‘step’包含一个mapper,combiner和一个reducer,这些是可选的,但是必须使用至少一个。
mapper()方法有两个参数key,value(这个例子中,key被忽略,每行日志作为一个value),并生成key-value对。
reduce()方法接受一个key和一个可迭代的values,并生成许多key-value对(这个例子中,计算每个key对应values值得和,也就是每天对应的PV)。
以不同方式执行job:
基本方式:
# python3 pv_day.py access_all.log-20161227
No configs found; falling back on auto-configuration
Creating temp directory /tmp/pv_day.root.20161228.022837.113256
Running step 1 of 1...
Streaming final output from /tmp/pv_day.root.20161228.022837.113256/output...
"2016-12-27" 47783
"2016-12-26" 299427
Removing temp directory /tmp/pv_day.root.20161228.022837.113256...
标准输入stdin方式,这种方式只接受第一个文件
# python3 pv_day.py < access_all.log-20161227 No configs found; falling back on auto-configuration Creating temp directory /tmp/pv_day.root.20161228.024431.884434 Running step 1 of 1... reading from STDIN Streaming final output from /tmp/pv_day.root.20161228.024431.884434/output... "2016-12-27" 47783 "2016-12-26" 299427 Removing temp directory /tmp/pv_day.root.20161228.024431.884434...
混合方式:
python3 pv_day.py input1.txt input2.txt - < input3.txt
分布式:
默认情况下,mrjob执行job使用单个Python进程,这里只是调试,并不是精确的分布式计算!
如果使用分布式计算,可以使用 -r/--runner选项。 使用 -r inline(默认), -r local, -r hadoop, -r emr
# python pv_day.py -r hadoop hdfs://my_home/input.txt
以上是关于基于hadoop的nginx访问日志分析---计算日pv的主要内容,如果未能解决你的问题,请参考以下文章
基于hadoop的nginx访问日志分析--userAgent和spider