hadoop的两类配置文件及3种启动/关闭方式

Posted ChavinKing

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了hadoop的两类配置文件及3种启动/关闭方式相关的知识,希望对你有一定的参考价值。

    hadoop配置文件

    默认配置文件:四个模块相对应的jar包中:$HADOOP_HOME/share/hadoop
        *core-default.xml
        *hdfs-default.xml
        *yarn-default.xml
        *mapred-default.xml
    用户自定义配置文件:$HADOOP_HOME/etc/hadoop/
        *core-site.xml
        *hdfs-site.xml
        *yarn-site.xml
        *mapred-site.xml

    *启动方式1:各个服务器逐一启动(比较常用,可编写shell脚本)
        hdfs:
            sbin/hadoop-daemon.sh start|stop namenode
            sbin/hadoop-daemon.sh start|stop datanode
            sbin/hadoop-daemon.sh start|stop secondarynamenode
        yarn:
            sbin/yarn-daemon.sh start|stop resourcemanager
               sbin/yarn-daemon.sh start|stop nodemanager
        mapreduce:
            sbin/mr-jobhistory-daemon.sh start|stop historyserver
           
    *启动方式2:各个模块分开启动:需要配置ssh对等性,需要在namenode上运行
        hdfs:
            sbin/start-dfs.sh
            sbin/start-yarn.sh
        yarn:
            sbin/stop-dfs.sh
            sbin/stop-yarn.sh
    *启动方式3:全部启动:不建议使用,这个命令需要在namenode上运行,但是会同时叫secondaryname节点也启动到namenode节点
            sbin/start-all.sh
            sbin/stop-all.sh

以上是关于hadoop的两类配置文件及3种启动/关闭方式的主要内容,如果未能解决你的问题,请参考以下文章

Hadoop集群配置及启动

Hadoop完全分布式常见错误及解决方案

hadoop集群配置与启动

Flink在YARN上支持的三种部署方式及使用方式

大数据Hadoop集群的启动

ssh免密登录配置及.ssh文件夹下文件简析