二.hadoop环境搭建

Posted 君子笑而不语

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了二.hadoop环境搭建相关的知识,希望对你有一定的参考价值。

目的

这篇文档的目的是帮助你快速完成单机上的Hadoop安装与使用以便你对Hadoop分布式文件系统(HDFS)和Map-Reduce框架有所体会,比如在HDFS上运行示例程序或简单作业等。

支持平台

  • GNU/Linux是产品开发和运行的平台。 Hadoop已在有2000个节点的GNU/Linux主机组成的集群系统上得到验证。
  • Win32平台是作为开发平台支持的。由于分布式操作尚未在Win32平台上充分测试,所以还不作为一个生产平台被支持。

所需软件

Linux和Windows所需软件包括:

  1. JavaTM1.5.x,必须安装,建议选择Sun公司发行的Java版本。
  2. ssh 必须安装并且保证 sshd一直运行,以便用Hadoop 脚本管理远端Hadoop守护进程。

安装软件

如果你的集群尚未安装所需软件,你得首先安装它们。

以Ubuntu Linux为例:

$ sudo apt-get install ssh 
$ sudo apt-get install rsync

下载

为了获取Hadoop的发行版,从Apache的某个镜像服务器上下载最近的 稳定发行版

运行Hadoop集群的准备工作

解压所下载的Hadoop发行版。编辑 conf/hadoop-env.sh文件,至少需要将JAVA_HOME设置为Java安装根路径。

尝试如下命令:
$ bin/hadoop 
将会显示hadoop 脚本的使用文档。

现在你可以用以下三种支持的模式中的一种启动Hadoop集群:

  • 单机模式
  • 伪分布式模式
  • 完全分布式模式

单机模式的操作方法

默认情况下,Hadoop被配置成以非分布式模式运行的一个独立Java进程。这对调试非常有帮助。

下面的实例将已解压的 conf 目录拷贝作为输入,查找并显示匹配给定正则表达式的条目。输出写入到指定的output目录。 

apache文档如下:

$ mkdir input 
$ cp conf/*.xml input 
$ bin/hadoop jar hadoop-*-examples.jar grep input output ‘dfs[a-z.]+$ cat output/*

实际情况需要作出调整:

$ mkdir input 
$ cp -rf etc/hadoop/*.xml input 
$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.4.jar grep input output ‘dfs[a-z.]+$ cat output/*

输出结果如下:

2    dfs.replication
1    dfsadmin
1    dfs.name.dir
1    dfs.data.dir

 

 

 

 




以上是关于二.hadoop环境搭建的主要内容,如果未能解决你的问题,请参考以下文章

Hadoop学习笔记二 集群环境搭建

二.hadoop环境搭建

HADOOP之HDFS环境搭建与基本操作

分享知识-快乐自己:大数据(hadoop)环境搭建

IntelliJ IDEA搭建Hadoop开发环境

IntelliJ IDEA搭建Hadoop开发环境