Spark入门实战系列--2.Spark编译与部署(中)--Hadoop编译安装

Posted ErBing

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark入门实战系列--2.Spark编译与部署(中)--Hadoop编译安装相关的知识,希望对你有一定的参考价值。

【注】该系列文章以及使用到安装包/测试数据 可以在《倾情大奉送--Spark入门实战系列》获取

1编译Hadooop

1.1 搭建环境

1.1.1 安装并设置maven

1. 下载maven安装包,建议安装3.0以上版本,本次安装选择的是maven3.0.5的二进制包,下载地址如下

http://mirror.bit.edu.cn/apache/maven/maven-3/

clip_image002

2. 使用ssh工具把maven包上传到/home/hadoop/upload目录

clip_image004

3. 解压缩apache-maven-3.0.5-bin.tar.gz

$tar -zxvf apache-maven-3.0.5-bin.tar.gz

clip_image006

4. apache-maven-3.0.5目录移到/usr/local目录下

$sudo mv apache-maven-3.0.5 /usr/local

clip_image008

5. /etc/profile配置文件中加入如下设置

export PATH=$JAVA_HOME/bin:/usr/local/apache-maven-3.0.5/bin:$PATH

clip_image010

6. 编辑/etc/profile文件并验证配置是否成功:

$source /etc/profile

$mvn -version

clip_image012

1.1.2 root用户使用yum安装svn

#yum install svn

clip_image014

clip_image016

1.1.3 root用户使用yum安装autoconf automake libtool cmake

#yum install autoconf automake libtool cmake

clip_image018

clip_image020

1.1.4 root用户使用yum安装ncurses-devel

#yum install ncurses-devel

clip_image022

1.1.5 root用户使用yum安装openssl-devel

#yum install openssl-devel

clip_image024

clip_image026

1.1.6 root用户使用yum安装gcc*

#yum install gcc*

clip_image028

clip_image030

1.1.7 安装并设置protobuf

注:该程序包需要在gcc安装完毕后才能安装,否则提示无法找到gcc编译器。

1. 下载protobuf安装包

下载链接为: https://code.google.com/p/protobuf/downloads/list

clip_image032

2. 使用ssh工具把protobuf-2.5.0.tar.gz包上传到/home/hadoop/Downloads目录

clip_image034

3. 解压安装包

$tar -zxvf protobuf-2.5.0.tar.gz

clip_image036

clip_image038

4. protobuf-2.5.0目录转移到/usr/local目录下

$sudo mv protobuf-2.5.0 /usr/local

clip_image040

5. 进行目录运行命令

进入目录以root用户运行如下命令:

#./configure

#make

#make check

#make install

clip_image042

clip_image044

6. 验证是否安装成功

运行成功之后,通过如下方式来验证是否安装成功

#protoc

clip_image046

1.2 编译Hadoop

1.2.1 下载Hadoop源代码 Release2.2.0

通过SVN获取Hadoop2.2.0源代码,在/home/hadoop/Downloads目录下命令:

$svn checkout http://svn.apache.org/repos/asf/hadoop/common/tags/release-2.2.0

获取时间较长,大小约75.3M

clip_image048

1.2.2 编译Hadoop源代码

:) 由于hadoop2.2.0svnpom.xml有点问题,会造成编译中出错,可先参考3.2修复该问题。在Hadoop源代码的根目录执行如下命令:

$mvn package -Pdist,native -DskipTests –Dtar

(注意:这行命令需要手工输入,如果复制执行会报异常!)

clip_image050

耗费的时间较长,总共花费了32分钟,在编译过程需要联网,从网络中下载所需要的资料。

clip_image052

clip_image054

1.2.3 验证编译是否成功

hadoop-dist/target/hadoop-2.2.0/lib/native 目录中查看libhadoop.so.1.0.0属性:

$file ./libhadoop.so.1.0.0

该文件为ELF 64-bit LSB则表示文件成功编译为64

clip_image056

hadoop-dist/target目录中已经打包好了hadoop-2.2.0.tar.gz,该文件作为Hadoop2.X 64位安装包。

clip_image058

2安装Hadoop

2.1 配置准备

2.1.1 上传并解压Hadoop安装包

1.Apache网站上提供Hadoop2.X安装包只支持32位操作系统安装,在64位服务器安装会出现4.1的错误异常。我们使用上一步骤编译好的hadoop-2.2.0.tar.gz文件作为安装包(也可以从网上下载native文件夹或者打包好的64hadoop安装包),使用"Spark编译与部署(上)"1. 3.1介绍的工具上传到/home/hadoop/upload 目录下

clip_image060

2. 在主节点上解压缩

$cd /home/hadoop/upload/

$tar -xzf hadoop-2.2.0.tar.gz

clip_image062

3. hadoop-2.2.0目录移到/app/hadoop目录下

$ mv hadoop-2.2.0 /app/hadoop

$ls /app/hadoop

clip_image064

2.1.2 Hadoop目录下创建子目录

hadoop用户在/app/hadoop/hadoop-2.2.0目录下创建tmpnamedata目录

$cd /app/hadoop/hadoop-2.2.0/

$mkdir tmp

$mkdir name

$mkdir data

$ll

clip_image066

2.1.3 配置hadoop-env.sh

1.     打开配置文件hadoop-env.sh

$cd /app/hadoop/hadoop-2.2.0/etc/hadoop

$sudo vi hadoop-env.sh

clip_image068

2. 加入配置内容,设置JAVA_HOMEPATH路径

export JAVA_HOME=/usr/lib/java/jdk1.7.0_55

export PATH=$PATH:/app/hadoop/hadoop-2.2.0/bin

clip_image070

3. 编译配置文件hadoop-env.sh,并确

以上是关于Spark入门实战系列--2.Spark编译与部署(中)--Hadoop编译安装的主要内容,如果未能解决你的问题,请参考以下文章

Spark入门实战系列--2.Spark编译与部署(上)--基础环境搭建

Spark入门实战系列--2.Spark编译与部署(中)--Hadoop编译安装

Spark入门实战系列--2.Spark编译与部署(中)--Hadoop编译安装

Spark入门实战系列--2.Spark编译与部署(中)--Hadoop编译安装

倾情大奉送--Spark入门实战系列

倾情大奉送--Spark入门实战系列