hadoop2.4.1伪分布式搭建

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了hadoop2.4.1伪分布式搭建相关的知识,希望对你有一定的参考价值。


安装步骤大纲:

  1. 准备硬件(一台虚拟主机)

  2. 装linux系统(我的是CentOS)

  3. 准备网络连接

  4. linux的一些配置

  5. 安装JDK

  6. 安装hadoop

开始

  1. 准备linux环境

    1. 打开VMware -> VMnet1 host-only -> 修改subnetip 设置网段:192.168.1.0 子网掩码:255.255.255.0 -> apply -> ok

回到windows --> 打开网络和共享中心 -> 更改适配器设置 -> 右键VMnet1 -> 属性 -> 双击IPv4 -> 设置Windows的IP:192.168.1.100 子网掩码:255.255.255.0 -> 点击确认

在虚拟软件上 -- My Computer -> 选中虚拟主机 -> 右键 -> setting -> network adapter -> host only -> ok

修改主机名

vim /etc/sysconfig/network

NETWORKING=yes

HOSTNAME=hadoop        ###

修改ip

两种方式:

第一种:通过Linux图形界面进行修改(强烈推荐)

    进入Linux图形界面 -> 右键点击右上方的两个小电脑 -> 点击edit connections -> 选中当前网络System eth0 ->点击edit按钮 -> 选择IPv4 -> method 选择为manual -> 点击add按钮 -> 添加ip:192.168.1.101 子网掩码:255.255.255.0 网关:192.168.1.1 -> apply

第二种方式:

vim /etc/sysconfig/network-scripts/ifcfg-eth0
            
            DEVICE="eth0"
            BOOTPROTO="static"               ###
            HWADDR="00:0C:29:3C:BF:E7"
            IPV6INIT="yes"
            NM_CONTROLLED="yes"
            ONBOOT="yes"
            TYPE="Ethernet"
            UUID="ce22eeca-ecde-4536-8cc2-ef0dc36d4a8c"
            IPADDR="192.168.1.101"           ###
            NETMASK="255.255.255.0"          ###
            GATEWAY="192.168.1.1"            ###

修改主机名和IP映射 vim /etc/hosts添加192.168.1.101     hadoop关闭防火墙#查看防火墙状态service iptables status#关闭防火墙service iptables stop#查看防火墙开机启动状态chkconfig iptables --list#关闭防火墙开机启动chkconfig iptables off重启Linuxreboot

2. 安装jdk

    a. 上传alt+p 后出现sftp窗口,然后put jdk所在的地址

    b. 解压jdk

         #创建文件夹

        mkdir /home/hadoop/app

         #解压

         tar -zxvf jdk文件名 -c /home/hadoop/app

    c. 将java添加到环境变量

        vim /etc/profile

        #在文件最后添加

        export JAVA_HOME=/home/hadoop/app/JDK目录名

        export PATH=$PATH:$JAVA_HOME/bin

        #刷新配置

        source /etc/profile

3. 安装hadoop2.4.1

    先上传hadoop的安装包到服务器上去/home/hadoop

    注意:hadoop2.x的配置文件$HADOOP_HOME/etc/hadoop

    伪分布式需要修改5个配置文件

    a. 配置hadoop

    第一个:hadoop-env.sh

            vim hadoop-env.sh

            #27行

            export JAVA_HOME=/usr/java/jdk目录

    第二个:core-site.xml

 <!--指定HADOOP所使用的文件系统schema(uri),HDFS的老大(NameNode)的地址-->    
            <property>
                <name>fs.defaultFS</name>
                <value>hdfs://hadoop:9000</value>
            </property>
            <!--指定hadoop运行时产生文件的存储目录 (可自定) -->
            <property>
            <name>hadoop.tmp.dir</name>
            <value>/home/hadoop/hadoop-2.4.1/tmp</value>
            </property>

第三个:hdfs-site.xml     hdfs-default.xml

 <!--指定HDFS的副本数 -->
 <property>
     <name>dfs.replication</name>
     <value>1</value>
 </property>

第四个:mapred-site.xml( mv mapred.site.xml.template mapred.site.xml)

mv mapred.site.xml.template mapred.site.xml

 vim mapred.site.xml

<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>

第五个:yarn-site.xml

<!--指定yarn的老大(ResourceManager)的地址-->
<property>
    <name>yarn.resourcemanager.hostname</name>
    <value>hadoop</value>
</property>
<!-- reducer获取数据的方式 -->
<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>

3.2 将hadoop添加到环境变量

    vim /etc/profile

        export JAVA_HOME=/usr/java/jdk目录
        export HADOOP_HOME=/itcast/hadoop目录
        export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

    source /etc/profile


3.3 格式化namenode (是对namenode进行初始化)

     hdfs namenode -format (hadoop namenode -format)


3.4 启动hadoop

      先启动HDFS

      sbin/start-dfs.sh


    再启动yarn

    sbin/start-yarn.sh


3.5 验证是否成功

    使用jps命令验证

     27408 NameNode
     28218 Jps
     27643 SecondaryNameNode
     28066 NodeManager
     27803 ResourceManager
     27512 DataNode

    http://192.168.1.101:50070 (HDFS管理界面)
    http://192.168.1.101:8088 (MR管理界面)

本文出自 “12019836” 博客,请务必保留此出处http://12029836.blog.51cto.com/12019836/1845557

以上是关于hadoop2.4.1伪分布式搭建的主要内容,如果未能解决你的问题,请参考以下文章

hadoop2.4.1伪分布式搭建.txt

hadoop2.4.1 伪分布

安装hadoop2.4.1

搭建hadoop2.4.1版本中/etc/hadoop/中找不到mapred-site.xml文件

搭建spark伪分散式需要先搭建hadoop吗

入门、快速搭建Docker分布式项目环境