hadoop单机测试环境安装(简)

Posted 升级打怪之路

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了hadoop单机测试环境安装(简)相关的知识,希望对你有一定的参考价值。

1.下载hadoop官网就可以下载。可以直接搜hadoop  ,  其实可以直接查看官网的版主文档搭建https://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/SingleCluster.html

 

2.解压包到/usr/local/下便于操作,不接呀也行,由于hadoop依赖java环境,请配置JAVA_HOME(例:JAVA_HOKE=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.161-2.b14.el7.x86_64)

vim hadoop-env.sh

 export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.161-2.b14.el7.x86_64      #25行注释打开

3.测试安装。./bin/hadoop version查看版本。

 

4.测试环境操作文本查看字符出现的次数

mkdir input

移动对应的文本到input内。

cp ./*.txt   input

./bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.10.0.jar wordcount  grep  /usr/local/hadoop/input   output  ‘[正则表达式]‘#

cat  output/*   #统计了对应的数据放到了output下

 

5.伪分布式:把需求的组件部署到一台服务器上。默认jps会开启

57904 DataNode
58097 SecondaryNameNode
57746 NameNode
66947 Jps
50531 ResourceManager
50649 NodeManager

5个服务。

vim hdfs-site.xml 

<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>

<!--
<property>
<name>dfs.http.address</name>
<value>localhost:9870</value>
</property>
-->
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/local/hadoop/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/usr/local/hadoop/tmp/dfs/data</value>
</property>

</configuration>

 

vim core-site.xml

<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/usr/local/hadoop/tmp</value>
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>

 

vim yarn-site.xml

<configuration>

<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.env-whitelist</name>
<value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
</property>

</configuration>

 

vim mapred-site.xml

<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.application.classpath</name>
<value>/usr/local/hadoop/share/hadoop/mapreduce/*:/usr/local/hadoop/share/hadoop/mapreduce/lib/*</value>
</property>

</configuration>

6.开启服务

./bin/hdfs namenode -format

./sbin/start-all.sh

7.查看服务

jps    默认开启5个服务。重启开不起的服务一般都是节点tmp对应目录下id冲突。删除重新启动就可以了。

8.使用方法:

  8.1,配置自身的ssh能免密访问自己。(默认第一步就该做)

  ssh-copy-id   ip

  8.2,创建工作用户目录

  ./bin/hdfs dfs -mkdir  /usr

  ./bin/hdfs dfs -mkdir  /usr/intput

  8.3, 传测试文件

  ./bin/hdfs dfs -put etc/hadoop/*.xml  input

  注:默认命令和bash的一样,只是这里是属于hdfs。本机是看不见的。

  8.4, 测试数据

  ./bin/hadoop jar    share/hadoop/mapreduce/hadoop-mapreduce-examples-2.10.0.jar    grep     /usr/input     output    "dfs[a-z]+"

以上是关于hadoop单机测试环境安装(简)的主要内容,如果未能解决你的问题,请参考以下文章

Hadoop单机Hadoop测试环境搭建

3-1.Hadoop单机模式安装

Hadoop 单机与完全分布式配置

大数据必知必会:Hadoop单机环境安装

Mac下hadoop,hive, hbase,spark单机环境搭建

HBase 分布式环境安装部署