在Docker中跑Hadoop与镜像制作

Posted LxFly

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了在Docker中跑Hadoop与镜像制作相关的知识,希望对你有一定的参考价值。

  重复造轮子,这里使用重新打包生成一个基于Docker的Hadoop镜像;
  Hadoop集群依赖的软件分别为:jdk、ssh等,所以只要这两项还有Hadoop相关打包进镜像中去即可;

集群架构

配置文件准备

1、Hadoop相关配置文件:core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml、slaves、hadoop-env.sh
2、ssh配置文件:ssh_config
3、Hadoop集群启动文件:start-hadoop.sh

制作镜像

1、安装依赖

RUN apt-get update && \\
  apt-get install -y openssh-server openjdk-8-jdk wget

2、下载Hadoop包

RUN wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.10.0/hadoop-2.10.0.tar.gz && \\
tar -xzvf hadoop-2.10.0.tar.gz && \\
mv hadoop-2.10.0 /usr/local/hadoop && \\
rm hadoop-2.10.0.tar.gz && \\
rm /usr/local/hadoop/share/doc -rf

3、配置环境变量

ENV JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64 
ENV HADOOP_HOME=/usr/local/hadoop 
ENV PATH=$PATH:/usr/local/hadoop/bin:/usr/local/hadoop/sbin

4、生成SSH key,用于节点免密登录

RUN ssh-keygen -t rsa -f ~/.ssh/id_rsa -P \'\' && \\
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

5、创建Hadoop相关目录、复制相关配置文件、相关文件添加执行权限,最后格式化namenode节点,各个节点启动时,启动ssh服务;

RUN mkdir -p ~/hdfs/namenode && \\ 
mkdir -p ~/hdfs/datanode && \\
mkdir $HADOOP_HOME/logs

COPY config/* /tmp/

#复制ssh、hadoop配置相关
RUN mv /tmp/ssh_config ~/.ssh/config && \\
mv /tmp/hadoop-env.sh /usr/local/hadoop/etc/hadoop/hadoop-env.sh && \\
mv /tmp/hdfs-site.xml $HADOOP_HOME/etc/hadoop/hdfs-site.xml && \\ 
mv /tmp/core-site.xml $HADOOP_HOME/etc/hadoop/core-site.xml && \\
mv /tmp/mapred-site.xml $HADOOP_HOME/etc/hadoop/mapred-site.xml && \\
mv /tmp/yarn-site.xml $HADOOP_HOME/etc/hadoop/yarn-site.xml && \\
mv /tmp/slaves $HADOOP_HOME/etc/hadoop/slaves && \\
mv /tmp/start-hadoop.sh ~/start-hadoop.sh && \\
mv /tmp/run-wordcount.sh ~/run-wordcount.sh

#添加执行权限
RUN chmod +x ~/start-hadoop.sh && \\
chmod +x ~/run-wordcount.sh && \\
chmod +x $HADOOP_HOME/sbin/start-dfs.sh && \\
chmod +x $HADOOP_HOME/sbin/start-yarn.sh 

# format namenode
RUN /usr/local/hadoop/bin/hdfs namenode -format

生成镜像
查看镜像

在Docker中跑Hadoop集群

  通过上面的Dockerfile生成了镜像后,这里即可使用上面所生成的镜像搭建Hadoop集群;这里启动一个master、两个slave节点;

添加桥接网络:

docker network create --driver=bridge solinx-hadoop

启动Master节点:

docker run -itd --net=solinx-hadoop -p 10070:50070 -p 8088:8088 --name solinx-hadoop-master --hostname solinx-hadoop-master solinx/hadoop:0.1

启动Slave1节点:

docker run -itd --net=solinx-hadoop --name solinx-hadoop-slave1 --hostname solinx-hadoop-slave1 solinx/hadoop:0.1

启动Slave2节点:

docker run -itd --net=solinx-hadoop --name solinx-hadoop-slave2 --hostname solinx-hadoop-slave1 solinx/hadoop:0.1

进入Master节点,执行启动Hadoop集群脚本即可:

启动Hadoop集群

查看HDFS

以上是关于在Docker中跑Hadoop与镜像制作的主要内容,如果未能解决你的问题,请参考以下文章

docker上运行mysql服务

Docker镜像管理基础与基于容器的镜像制作示例

云端干货|如何使用Docker制作镜像

hadoop streaming 中跑python程序,自定义模块的导入

Docker系列- 镜像制作与发布

Docker搭建Hadoop环境