Hadoop日志分析系统启动脚本

Posted blfbuaa

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Hadoop日志分析系统启动脚本相关的知识,希望对你有一定的参考价值。

Hadoop日志分析系统启动脚本

#!/bin/bash

#Flume日志数据的根文件夹
 root_path=/flume
#Mapreduce处理后的数据文件夹
 process_path=/process
#hive分区时间
 partition=`date "+%Y-%m-%d"`
#获取前一小时的时间:/YYYY-MM-DD/HH
 file_path=`date -d "1 hour ago" +"%Y-%m-%d/%H"`
#运行Mapreduce程序
 # hadoop jar /root/develop/runjar/accesslog.jar hdfs://mycluster $root_path/$file_path $process_path/$file_path
 hadoop jar /root/develop/runjar/accesslog.jar hdfs://mycluster /flume/2014-10-15/16 /process/2014-10-15/16
#把数据装载到Hive中
 #hive -e load data inpath $process_path/$file_path/* into table access_log partition(dt=$partition)
 hive -e "load data inpath ‘/process/2014-10-15/16/*‘ overwrite into table access_log partition(dt=‘2014-10-15‘)"
#运行Hive脚本,统计数据
 hive -e "insert into table access_page_times select cs_uri_stem,count(*) from access_log where dt=‘2014-10-15‘ group by cs_uri_stem"
#通过sqoop把数据从hive导出到mysql
 sqoop export --connect jdbc:mysql://ip:3306/fkdb --username root --password 123456 --table access_page_times --export-dir /user/hive/warehouse/access_page_times --input-fields-terminated-by ‘\001‘




以上是关于Hadoop日志分析系统启动脚本的主要内容,如果未能解决你的问题,请参考以下文章

日志采集Flume启动停止脚本

日志采集Flume启动停止脚本

日志采集Flume启动停止脚本

hadoop启动脚本分析及常见命令

常用python日期日志获取内容循环的代码片段

hadoop进阶系列之海量web日志KPI指标提取