hadoopHdfs文件介绍

Posted yjt1993

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了hadoopHdfs文件介绍相关的知识,希望对你有一定的参考价值。

1、dfs.nameservices

说明:为namenode集群定义一个services name

默认值:null

比如设置为:ns1

2、dfs.ha.namenodes.<dfs.nameservices>

说明:nameservice 包含哪些namenode,为各个namenode起名

默认值:null

比如设置为nn1, nn2

3、dfs.namenode.rpc-address.ns1.nn1

说明:名为nn1的namenode 的rpc地址和端口号,rpc用来和datanode通讯

默认值:9000,可以设置为8020

如何设置:host:port

4、dfs.namenode.http-address.ns1.nn1

说明:名为nn1的namenode 的http地址和端口号,web客户端 

默认值:50070

如何设置:host:port

 

5、dfs.namenode.shared.edits.dir

说明:namenode间用于共享编辑日志的journal节点列表

示例:qjournal://master:8485;slave1:8485;slave2:8485/ns1

 

6、dfs.journalnode.edits.dir

说明:journalnode 上用于存放edits日志的目录

默认值:/tmp/hadoop/dfs/journalnode/

 

7、dfs.client.failover.proxy.provider.ns1

说明:客户端连接可用状态的NameNode所用的代理类

默认值:org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider

 

8、dfs.ha.fencing.methods

说明:HDFS的HA功能的防脑裂方法。可以是内建的方法(例如shell和sshfence)或者用户定义的方法。
建议使用sshfence(hadoop:9922),括号内的是用户名和端口,注意,这需要NN的2台机器之间能够免密码登陆
fences是防止脑裂的方法,保证NN中仅一个是Active的,如果2者都是Active的,新的会把旧的强制Kill

值:

sshfence
shell(/bin/true)

 

9、dfs.ha.fencing.ssh.private-key-files

说明:失效转移时使用的秘钥文件。

 

10、dfs.ha.automatic-failover.enabled

说明:故障转移功能,建议开启

value:true

 

11、dfs.webhdfs.enabled

说明:是否开启webhdfs

value:true

 

12、dfs.journalnode.http-address

说明:JournalNode RPC服务地址和端口

value:0.0.0.0:8485

 

13、ha.zookeeper.quorum

说明:zookeeper队列地址

 

14、dfs.permissions.enabled

说明:是否开启权限检查,建议开启

value:true

 

15、dfs.namenode.acls.enabled

说明:是否在hdfs开启acl,默认是为false,建议开启

value:true

 

 

以上是关于hadoopHdfs文件介绍的主要内容,如果未能解决你的问题,请参考以下文章

hadoop的hdfs的某个目录里面有两个文件然后想进行文件中key对应的value相乘操作

Hadoop的整体介绍及安装

Hadoop集群中Hbase的介绍安装使用

hadoop内部表直接添加文件

hdfs safe原因

Hadoop HDFS:读取正在写入的序列文件