hadoop集群搭好 为啥hdfs端口500070打不开

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了hadoop集群搭好 为啥hdfs端口500070打不开相关的知识,希望对你有一定的参考价值。

1、启动hadoop后,要看哪些界面或功能之前,建议先用jps或是netstat -ano看下相应的端口是否已经开启了,如果端口没开启,是肯定看不了相应的界面的。 试下看吧。 参考技术A 是50070端口吧

Hadoop HDFS - 无法连接到主端口

【中文标题】Hadoop HDFS - 无法连接到主端口【英文标题】:Hadoop HDFS - Cannot connect to port on master 【发布时间】:2012-01-31 18:05:48 【问题描述】:

我已经建立了一个小型 Hadoop 集群进行测试。 NameNode(1 台机器)、SecondaryNameNode(1)和所有 DataNode(3)的设置都进行得相当顺利。这些机器被命名为“master”、“secondary”和“data01”、“data02”和“data03”。所有 DNS 均已正确设置,无密码 SSH 从主/从配置到所有机器并返回。

我使用bin/hadoop namenode -format 格式化集群,然后使用bin/start-all.sh 启动所有服务。使用jps 检查所有节点上的所有进程是否已启动并运行。我的基本配置文件如下所示:

<!-- conf/core-site.xml -->
<configuration>
  <property>
    <name>fs.default.name</name>
    <!-- 
      on the master it's localhost
      on the others it's the master's DNS
      (ping works from everywhere)
    -->
    <value>hdfs://localhost:9000</value>
  </property>
  <property>
    <name>hadoop.tmp.dir</name>
    <!-- I picked /hdfs for the root FS -->
    <value>/hdfs/tmp</value>
  </property>
</configuration>

<!-- conf/hdfs-site.xml -->
<configuration>
  <property>
    <name>dfs.name.dir</name>
    <value>/hdfs/name</value>
  </property>
  <property>
    <name>dfs.data.dir</name>
    <value>/hdfs/data</value>
  </property>
  <property>
    <name>dfs.replication</name>
    <value>3</value>
  </property>
</configuration>

# conf/masters
secondary

# conf/slaves
data01
data02
data03

我现在只是想让 HDFS 正常运行。

我创建了一个测试目录hadoop fs -mkdir testing,然后尝试使用hadoop fs -copyFromLocal /tmp/*.txt testing 将一些文件复制到其中。这是 hadoop 崩溃的时候,或多或少地给了我这个:

WARN hdfs.DFSClient: DataStreamer Exception: org.apache.hadoop.ipc.RemoteException: java.io.IOException: File /user/hd/testing/wordcount1.txt could only be replicated to 0 nodes, instead of 1
  at ... (such and such)

WARN hdfs.DFSClient: Error Recovery for block null bad datanode[0] nodes == null
  at ...

WARN hdfs.DFSClient: Could not get block locations. Source file "/user/hd/testing/wordcount1.txt" - Aborting...
  at ...

ERROR hdfs.DFSClient: Exception closing file /user/hd/testing/wordcount1.txt: org.apache.hadoop.ipc.RemoteException: java.io.IOException: File /user/hd/testing/wordcount1.txt could only be replicated to 0 nodes, instead of 1
  at ...

等等。当我尝试从 DataNode 机器上运行 hadoop fs -lsr . 时,也会出现类似的问题,但结果如下:

12/01/02 10:02:11 INFO ipc.Client: Retrying connt to server master/192.162.10.10:9000. Already tried 0 time(s).
12/01/02 10:02:12 INFO ipc.Client: Retrying connt to server master/192.162.10.10:9000. Already tried 1 time(s).
12/01/02 10:02:13 INFO ipc.Client: Retrying connt to server master/192.162.10.10:9000. Already tried 2 time(s).
...

我说这很相似,因为我怀疑这是端口可用性问题。运行telnet master 9000 表明端口已关闭。我在某处读到这可能是 IPv6 冲突问题,因此在 conf/hadoop-env.sh 中定义了以下内容:

export HADOOP_OPTS=-Djava.net.preferIPv4Stack=true

但这并没有成功。在 master 上运行 netstat 会显示如下内容:

Proto Recv-Q Send-Q  Local Address       Foreign Address      State
tcp        0      0  localhost:9000      localhost:56387      ESTABLISHED
tcp        0      0  localhost:56386     localhost:9000       TIME_WAIT
tcp        0      0  localhost:56387     localhost:9000       ESTABLISHED
tcp        0      0  localhost:56384     localhost:9000       TIME_WAIT
tcp        0      0  localhost:56385     localhost:9000       TIME_WAIT
tcp        0      0  localhost:56383     localhost:9000       TIME_WAIT

此时我很确定问题出在端口 (9000) 上,但我不确定在配置方面我错过了什么。有任何想法吗?谢谢。

更新

我发现将 DNS 名称硬编码为 /etc/hosts 不仅有助于解决此问题,而且还加快了连接速度。缺点是您必须在集群中的所有机器上执行此操作,并且在添加新节点时再次执行此操作。或者你可以只设置一个 DNS 服务器,我没有。

这是我集群中的一个节点的示例(节点名为hadoop01hadoop02 等,主节点和辅助节点分别为 01 和 02)。大部分由操作系统生成的节点:

# this is a sample for a machine with dns hadoop01
::1 localhost ip6-localhost ip6-loopback
fe00::0 ip6-localnet
ff00::0 ip6-mcastrprefix
ff02::1 ip6-allnodes
ff02::2 ip6-allroutes

# --- Start list of nodes
192.168.10.101 hadoop01
192.168.10.102 hadoop02
192.168.10.103 hadoop03
192.168.10.104 hadoop04
192.168.10.105 hadoop05
192.168.10.106 hadoop06
192.168.10.107 hadoop07
192.168.10.108 hadoop08
192.168.10.109 hadoop09
192.168.10.110 hadoop10
# ... and so on

# --- End list of nodes

# Auto-generated hostname. Please do not remove this comment.
127.0.0.1 hadoop01 localhost localhost.localdomain

希望这会有所帮助。

【问题讨论】:

【参考方案1】:

当有远程节点连接到 NameNode 时,将 hdfs://localhost:9000 中的 localhost 替换为 NameNode 中 fs.default.name 属性的 ip-address 或主机名。

使用jps检查所有节点上的所有进程是否已启动并运行

日志文件中可能存在一些错误。 jps 确保进程正在运行。

【讨论】:

你是对的 - 原来是 DNS 解析问题。似乎 localhost 一词对所有机器来说都是令人困惑的。我最终做的是在所有服务器上编辑 /etc/hosts,并手动设置 DNS。谢谢! @sa125 您能否发布一个 /etc/hosts 示例来说明您的更改?我遇到了同样的问题。 谢谢,我在下班前让它运行了 :-) 只有一个问题:为什么你有hadoop01 作为完整 IP 和 localhost 的别名?这种配置有什么好处吗? 有趣的是,我将 master 添加为 localhost + IP 的同义词,而不是在 core-site.xml 中设置 IP,示例应用程序现在运行得更快。 1:24 而不是 15 分钟。 (2个VM,全分布式模式,例子是hadoop jar /usr/share/hadoop/hadoop-examples-*.jar grep input output 'dfs[a-z.]+')非常感谢!【参考方案2】:

更正您的 /etc/hosts 文件以包含 localhost 或更正您的核心站点文件以指定托管 HDFS 文件系统的节点的 ip 或主机名。

【讨论】:

我也遇到过这个问题!因为我的机器有一个默认设置,例如:127.0.1.1 ubuntu01(ubuntu01 在我集群的数据节点上)。所以如果你使用这个设置启动namenode,它就不能从另一个datanode监听其他ip。

以上是关于hadoop集群搭好 为啥hdfs端口500070打不开的主要内容,如果未能解决你的问题,请参考以下文章

Hadoop HDFS - 无法连接到主端口

第二课:hdfs集群集中管理和hadoop文件操作

大数据讲课笔记3.4 Hadoop集群测试

Hadoop基础操作

Hadoop

ubuntu18.04 基于Hadoop3.1.2集群的Hbase2.0.6集群搭建