hadoop单机模式和伪分布式模式的异同

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了hadoop单机模式和伪分布式模式的异同相关的知识,希望对你有一定的参考价值。

参考技术A

1、运行模式不同:

单机模式是Hadoop的默认模式。这种模式在一台单机上运行,没有分布式文件系统,而是直接读写本地操作系统的文件系统。

伪分布模式这种模式也是在一台单机上运行,但用不同的Java进程模仿分布式运行中的各类结点。

2、配置不同:

单机模式(standalone)首次解压Hadoop的源码包时,Hadoop无法了解硬件安装环境,便保守地选择了最小配置。在这种默认模式下所有3个XML文件均为空。当配置文件为空时,Hadoop会完全运行在本地。

伪分布模式在“单节点集群”上运行Hadoop,其中所有的守护进程都运行在同一台机器上。

3、节点交互不同:

单机模式因为不需要与其他节点交互,单机模式就不使用HDFS,也不加载任何Hadoop的守护进程。该模式主要用于开发调试MapReduce程序的应用逻辑。

伪分布模式在单机模式之上增加了代码调试功能,允许你检查内存使用情况,HDFS输入输出,以及其他的守护进程交互。

扩展资料:

核心架构:

1、HDFS:

HDFS对外部客户机而言,HDFS就像一个传统的分级文件系统。可以创建、删除、移动或重命名文件,等等。存储在 HDFS 中的文件被分成块,然后将这些块复制到多个计算机中(DataNode)。这与传统的 RAID 架构大不相同。块的大小和复制的块数量在创建文件时由客户机决定。

2、NameNode

NameNode 是一个通常在 HDFS 实例中的单独机器上运行的软件。它负责管理文件系统名称空间和控制外部客户机的访问。NameNode 决定是否将文件映射到 DataNode 上的复制块上。

3、DataNode

DataNode 也是在 HDFS实例中的单独机器上运行的软件。Hadoop 集群包含一个 NameNode 和大量 DataNode。DataNode 通常以机架的形式组织,机架通过一个交换机将所有系统连接起来。Hadoop 的一个假设是:机架内部节点之间的传输速度快于机架间节点的传输速度。

参考资料来源:百度百科-Hadoop

Spark新手入门(单机模式)——Hadoop集群(伪分布模式)安装

欢迎大家关注我的公众号,“互联网西门二少”,我将继续输出我的技术干货~

主要包括以下三部分,本文为第二部分:
一. Scala环境准备 查看
二. Hadoop集群(伪分布模式)安装
三. Spark集群(standalone模式)安装 查看

Hadoop集群(伪分布模式)安装

  1. 依赖项:jdk(hadoop与java版本兼容性参考链接)、ssh;
    执行ssh localhost若提示:

    localhost: ssh: connect to host localhost port 22: Connection refused
    

    则需要:
    a.检查是否安装了openssh,若没有则建议通过brew install openssh安装(需要先安装brew,安装brew前还需要先安装xcode,安装方法见官网,官网的方法若超时,可以先在浏览器中打开curl链接并复制到本地保存(如~/Desktop/install),然后修改安装命令为:
    /usr/bin/ruby -e "$(cat ~/Desktop/install)"
    ),启动方式:
    sudo /usr/sbin/sshd

    若启动失败并提示:
    Could not load host key: /etc/ssh/ssh_host_rsa_key
    Could not load host key: /etc/ssh/ssh_host_dsa_key
    Could not load host key: /etc/ssh/ssh_host_ecdsa_key
    Could not load host key: /etc/ssh/ssh_host_ed25519_key

    则,执行以下操作后重新启动:
    sudo cp ~/.ssh/id_rsa /etc/ssh/ssh_host_rsa
    sudo cp ~/.ssh/id_rsa.pub /etc/ssh/ssh_host_rsa.pub

    启动后通过ps -ef | grep ssh检查ssh服务是否存在
    b.检查是否存在以下文件,且authorized_keys 中包含id_rsa.pub中的内容
    ~/.ssh/id_rsa.pub
    ~/.ssh/id_rsa
    ~/.ssh/authorized_keys

    若没有id_rsa.*文件,则执行以下操作:
    ssh-keygen -t rsa
    cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
    chmod 0600 ~/.ssh/authorized_keys

  2. 修改/etc/hosts文件(可选)
    添加本机ip到localhost的映射(sudo vim /etc/hosts),如下所示:

    xx.xx.xx.xx    localhost
    

    这一步是为了可以使用形如:hdfs://xx.xx.xx.xx:9000/file/path的格式访问hdfs,否则只能使用localhost。

  3. 下载hadoop-2.7.6安装包,解压到~/tools/hadoop-2.7.6

  4. 修改配置
    a.etc/hadoop/core-site.xml中添加如下配置:

        <configuration>
    	<property>
    		<name>fs.defaultFS</name>
    		<value>hdfs://localhost:9000</value>
    	</property>
    </configuration>
        ```
    
    b.etc/hadoop/hdfs-site.xml中添加如下配置:
    ```xml
        <configuration>
    	<property>
    		<name>dfs.replication</name>
    		<value>1</value>
    </configuration>
        ```
    
    <b>以上为hdfs相关配置,若要使用yarn,还需进行以下配置</b>
    c.拷贝etc/hadoop/mapred-site.xml.template到etc/hadoop/mapred-site.xml并添加如下配置:
    ```xml
        <configuration>
    	<property>
    		<name>mapreduce.framework.name</name>
    		<value>yarn</value>
    	</property>
    </configuration>
        ```
    
    d.etc/hadoop/yarn-site.xml中添加如下配置:
    ```xml
        <configuration>
    	<property>
    		<name>yarn.nodemanager.aux-services</name>
    		<value>mapreduce_shuffle</value>
    	</property>
    </configuration>
        ```
    
    注:默认存储路径为/tmp/hadoop-&lt;username&gt;/,可以通过配置 “dfs.namenode.name.dir”、 “dfs.datanode.data.dir” 显式指定,参考[文档](http://hadoop.apache.org/docs/r2.7.6/hadoop-project-dist/hadoop-common/ClusterSetup.html#Configuring_the_Hadoop_Daemons "文档");
    
    
  5. 启动服务
    a.格式化namenode
    ./bin/hdfs namenode -format

    b.启动HDFS
    ./sbin/start-dfs.sh
    c.若要启用历史任务服务,执行以下命令:
    ./sbin/mr-jobhistory-daemon.sh start historyserver

    d.若要使用yarn,执行以下命令
    ./sbin/start-yarn.sh

    启动后通过jps命令查看启动的服务,应包含:DataNode、NameNode、SecondaryNameNode(若启动了yarn,还包括:NodeManager、ResourceManager;若启动了历史服务,还包括:JobHistoryServer);

  6. 通过以下网址查看服务状态
    a.历史任务:http://localhost:19888/
    b.集群状态:http://localhost:8088/
    c.NameNode状态:http://localhost:50070/

  7. 测试
    通过以下命令测试hdfs是否可用:
    ./bin/hadoop fs -ls /
    ./bin/hadoop fs -ls hdfs://localhost:9000/
    ./bin/hadoop fs -ls hdfs://xx.xx.xxx.xxx:9000/
    ./bin/hdfs dfs -ls /
    ./bin/hdfs dfs -ls hdfs://localhost:9000/
    ./bin/hdfs dfs -ls hdfs://xx.xx.xxx.xxx:9000/

    若服务可用,需要创建以下目录:
    hdfs://localhost:9000/user/<username>

  8. 停止服务
    可将以下命令写入stop.sh批量执行:
    ./sbin/stop-dfs.sh
    ./sbin/stop-yarn.sh
    ./sbin/mr-jobhistory-daemon.sh stop historyserver

注:若配置了yarn(4.c),则官网中下面的例子是无法成功执行的;若只配置了hdfs(4.a,4.b),是没有问题的:

    bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.6.jar grep input output \'dfs[a-z.]+\'

参考文档:官方文档

以上是关于hadoop单机模式和伪分布式模式的异同的主要内容,如果未能解决你的问题,请参考以下文章

Hadoop中单机模式和伪分布式的区别是啥

Hadoop单机模式和伪分布式搭建教程CentOS

HBase2.3.0的安装与单机和伪分布模式的配置

Hadoop 单机版和伪分布式版安装

Hadoop的单机模式,伪分布式和完全分布式

[Nutch]Hadoop单机伪分布模式的配置