Hadoop ---- HDFS
Posted Java到大数据之路
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Hadoop ---- HDFS相关的知识,希望对你有一定的参考价值。
HDFS重要概念
典型的Master/Slave架构
HDFS往往是由一个NameNode(HA架构会有两个NameNode,联邦机制)和多个DataNode组成分块存储(Block机制)
HDFS中的文件在物理上是分块存储,块的大小可调整,2.x版本block大小默认是128M。当文件大于128M,将文件切片存储命名空间(NameSpace)
HDFS支持传统的层次型文件组织结构。用户可以创建目录,可以创建、删除、移动、重命名文件
NameNode 复制维护文件系统的名字空间,任何对文件系统名字空间或属性的修改都会被NameNode记录下来
HDFS提供给客户一个单一抽象的目录树,因为数据都存放在DataNode中,不会去显示存放到哪个DataNode,是把多个DataNode抽象成一个目录树,客户端访问形式:hdfs://namenode:namenode的port/test/input 即 hdfs://linux121:9000/test/inputNameNode的元数据管理
目录结构、文件分块位置信息叫做元数据,NameNode的元数据记录每个文件所存放的block信息(block的ID及所在的DataNode节点的信息)DataNode数据储存
文件存放在Block中,而Block的具体管理由DataNode节点承担,一个Block会有多个DataNode存储,DataNode会定时相关NameNode汇报自己持有的Block的信息副本机制
为了容错,文件所有的block都有副本,大小和数量都可以配置,副本不是以某个文件而是以整个block备份。副本的默认数量是3个一次写入,多次读出
HDFS适合一起写入,多次读出,不支持随机修改,支持追加写入操作。不适合做网盘
HDFS架构
客户端
上传文件到HDFS的时候,Client负责文件的切分Block,然后进行上传
向DataNode负责上传下载文件
与NameNode交互,获取文件Block位置信息
NameNode
维护管理HDFS的名称空间(NameSpace)
维护副本策略
记录文件块(Block)的映射信息
处理客户端的读写请求
DataNode
实际存储Block数据
负责Block读写数据
复制(副本)
Shell命令行操作HDFS
查看某个命令的具体用法,如cat的用法
1hadoop fs -help cat
查看某个目录下面的文件,例如根目录(查看的是HDFS的根目录)
1hdfs dfs -ls /
创建一个目录,在根目录下面创建一个lagou和自己bigdata
1hadoop fs -mkdir -p /lagou/bigdata
从本地移动(剪切粘贴)个文件到服务器
1hadoop fs -moveFromLocal ./test.txt /lagou/bigdata
查看一个文件内容
1 hadoop fs -cat /lagou/bigdata/test.txt
追加写入
1#生产一个hdfs.txt的文件,随便写点内容
2vim hdfs.tx
3#执行追加写入
4 hadoop fs -appendToFile ./hdfs.tx /lagou/bigdata/test.txt
修改文件权限
1hadoop fs -chmod 777 /lagou/bigdata/test.txt
修改用户组
1hadoop fs -chown root:root /lagou/bigdata/test.txt
从本地移动(复制粘贴)个文件到服务器
1hadoop fs -copyFromLocal ./test.txt /lagou/bigdata
2hadoop fs -put ./test.txt /lagou/bigdata
从HDFS移动(复制粘贴)到本地
1hadoop fs -corpToLocal /lagou/bigdata/test.txt ./
2hadoop fs -get /lagou/bigdata/test.txt ./
删除空文件夹
1hadoop fs -rmdir /test
显示一个文件的末尾
1hadoop fs -tail /lagou/bigdata/test.txt
统计文件夹大小信息
1hadoop fs -du -s -h /lagou/bigdata
统计文件大小信息
1hadoop fs -du -s -h /lagou/bigdata/test.txt
设置HDFS副本数量
1hadoop fs -setrep 10 /test/input/test2.txt
这里设置副本数量只是记录在NameNode里面,具体有没有十个副本需要看有多少个DataNode,因为目前只有3台机器,最有也就三个副本,只有节点数增加到10台的时候,副本数量才会达到10个。所以,文件真正的副本数量取决于DataNode数量
使用Idea链接HDFS
导入pom.xml
1<dependencies>
2 <dependency>
3 <groupId>junit</groupId>
4 <artifactId>junit</artifactId>
5 <version>RELEASE</version>
6 </dependency>
7 <dependency>
8 <groupId>org.apache.logging.log4j</groupId>
9 <artifactId>log4j-core</artifactId>
10 <version>2.8.2</version>
11 </dependency>
12 <dependency>
13 <groupId>org.apache.hadoop</groupId>
14 <artifactId>hadoop-common</artifactId>
15 <version>2.9.2</version>
16 </dependency>
17 <dependency>
18 <groupId>org.apache.hadoop</groupId>
19 <artifactId>hadoop-client</artifactId>
20 <version>2.9.2</version>
21 </dependency>
22 <dependency>
23 <groupId>org.apache.hadoop</groupId>
24 <artifactId>hadoop-hdfs</artifactId>
25 <version>2.9.2</version>
26 </dependency>
27 </dependencies>
代码:
1package com.hhb.hdfs;
2
3import org.apache.hadoop.conf.Configuration;
4import org.apache.hadoop.fs.*;
5import org.apache.hadoop.fs.permission.FsPermission;
6import org.apache.hadoop.io.IOUtils;
7import org.junit.After;
8import org.junit.Before;
9import org.junit.Test;
10
11import java.io.File;
12import java.io.FileInputStream;
13import java.io.FileOutputStream;
14import java.io.IOException;
15import java.net.URI;
16import java.net.URISyntaxException;
17
18/**
19 * @Date: 2020-07-02 14:47
20 * @Description:
21 */
22public class HdfsClient {
23
24 private FileSystem fileSystem = null;
25
26 private Configuration configuration = null;
27
28 @Before
29 public void init() throws URISyntaxException, IOException, InterruptedException {
30 // 1. 获取Hadoop集群configuration对象
31 configuration = new Configuration();
32 //设置客户端访问datanode使用hostname来进行访问
33 configuration.set("dfs.client.use.datanode.hostname", "true");
34 // 设置副本数量,生效的优先级,代码里的 > 配置文件 > hadoop-hdfs.jar 里的默认hdfs-default.xml配置
35// configuration.set("dfs.replication", "2");
36 // 2. 根据configuration对象获取FileSystem对象
37 fileSystem = FileSystem.get(new URI("hdfs://linux121:9000"), configuration, "root");
38
39 }
40
41 @After
42 public void destroy() throws IOException {
43 fileSystem.close();
44 }
45
46
47 /**
48 * 创建目录
49 *
50 * @throws URISyntaxException
51 * @throws IOException
52 * @throws InterruptedException
53 */
54 @Test
55 public void testMkdirs() throws URISyntaxException, IOException, InterruptedException {
56// // 1. 获取Hadoop集群configuration对象
57// Configuration configuration = new Configuration();
58// configuration.set("fs.defaultFs", "hdfs://linux121:9000");
59// // 2. 根据configuration对象获取FileSystem对象
60// FileSystem fileSystem = FileSystem.get(new URI("hdfs://linux121:9000"), configuration, "root");
61 // 3. 使用FileSystem对象创建一个测试目录
62 boolean mkdirs = fileSystem.mkdirs(new Path("/api_test"));
63 System.err.println(mkdirs);
64 // 4. 释放FileSystem对象
65// fileSystem.close();
66 }
67
68
69 /**
70 * 创建目录
71 *
72 * @throws IOException
73 */
74 @Test
75 public void testMkdirs2() throws IOException {
76 // 1. 获取Hadoop集群configuration对象
77// Configuration configuration = new Configuration();
78// configuration.set("fs.defaultFS", "hdfs://linux121:9000");
79// // 2. 根据configuration对象获取FileSystem对象
80// FileSystem fileSystem = FileSystem.get(configuration);
81 // 3. 使用FileSystem对象创建一个测试目录
82 boolean mkdirs = fileSystem.mkdirs(new Path("/api_test"));
83 System.err.println(mkdirs);
84 // 4. 释放FileSystem对象
85// fileSystem.close();
86 }
87
88
89 /**
90 * 上传文件
91 */
92 @Test
93 public void copyFromLocalToHDFS() throws IOException {
94 fileSystem.copyFromLocalFile(new Path("/Users/baiwang/Desktop/yarn-site.xml"), new Path("/api_test"));
95 }
96
97
98 /**
99 * 下载文件
100 */
101 @Test
102 public void copyFromHDFSToLocal() throws IOException {
103 // 第一个参数:表示是否删除源文件
104 fileSystem.copyToLocalFile(true, new Path("/api_test/yarn-site.xml"), new Path("/Users/baiwang/Desktop/"));
105 }
106
107 /**
108 * 删除文件
109 *
110 * @throws IOException
111 */
112 @Test
113 public void deleteFile() throws IOException {
114 //第二个参数表示是否递归删除
115 fileSystem.delete(new Path("/api_test"), true);
116 }
117
118
119 /**
120 * 遍历HDFS的根目录,得到文件以及文件夹信息:名称,权限,长度
121 *
122 * @throws IOException
123 */
124 @Test
125 public void listsFile() throws IOException {
126 //第二个参数表示是否递归,该方法返回的一个迭代器,里面存放的是文件状态信息
127 RemoteIterator<LocatedFileStatus> remoteIterator = fileSystem.listFiles(new Path("/"), true);
128 while (remoteIterator.hasNext()) {
129 LocatedFileStatus fileStatus = remoteIterator.next();
130 //文件名称
131 String name = fileStatus.getPath().getName();
132 //文件大小
133 long len = fileStatus.getLen();
134 //获取权限
135 FsPermission permission = fileStatus.getPermission();
136 //获取分组信息
137 String group = fileStatus.getGroup();
138 //获取所属用户
139 String owner = fileStatus.getOwner();
140 System.err.println(name + " " + len + " " + permission + " " + group + " " + owner);
141 //块信息
142 BlockLocation[] blockLocations = fileStatus.getBlockLocations();
143 for (BlockLocation blockLocation : blockLocations) {
144 String[] hosts = blockLocation.getHosts();
145 for (String host : hosts) {
146 System.err.println("主机名称:" + host);
147 }
148 }
149 System.err.println("============");
150
151 }
152 }
153
154 /**
155 * 判读是文件还是文件夹
156 *
157 * @throws IOException
158 */
159 @Test
160 public void isFile() throws IOException {
161 FileStatus[] fileStatuses = fileSystem.listStatus(new Path("/"));
162 for (FileStatus fileStatus : fileStatuses) {
163 boolean file = fileStatus.isFile();
164 if (file) {
165 System.err.println("文件:" + fileStatus.getPath().getName());
166 } else {
167 System.err.println("文件夹:" + fileStatus.getPath().getName());
168 }
169 }
170 }
171
172
173 /**
174 * 使用IO流操作HDFS
175 */
176 @Test
177 public void uploadFileIO() throws IOException {
178 //1. 获取本地输入流
179 FileInputStream fileInputStream = new FileInputStream(new File("/Users/baiwang/Desktop/yarn-site.xml"));
180 //2. 获取写数据的输出流
181 FSDataOutputStream fsDataOutputStream = fileSystem.create(new Path("/lagou.txt"));
182 //3. 输入流数据拷贝到输出流,copyBytes方法里有默认拷贝值大小(4096),也有是否关闭流的操作(true)
183 IOUtils.copyBytes(fileInputStream, fsDataOutputStream, configuration);
184 }
185
186
187 /**
188 * 使用IO流下载文件
189 */
190 @Test
191 public void downLoadFileIO() throws IOException {
192 //1. 获取HDFS输入流
193 FSDataInputStream fsDataInputStream = fileSystem.open(new Path("/lagou.txt"));
194 //2. 获取写数据的输出流
195 FileOutputStream fileOutputStream = new FileOutputStream(new File("/Users/baiwang/Desktop/hhb.xml"));
196 //3. 输入流数据拷贝到输出流,copyBytes方法里有默认拷贝值大小(4096),也有是否关闭流的操作(true)
197 IOUtils.copyBytes(fsDataInputStream, fileOutputStream, configuration);
198 }
199
200
201 /**
202 * seek 定位读取,使用IO流把lagou.txt
203 */
204 @Test
205 public void seekReadFile() throws IOException {
206 //获取HDFS输入流
207 FSDataInputStream fsDataInputStream = fileSystem.open(new Path("/lagou.txt"));
208 //将输入流复制到控制台中,false表示不会自动关闭流
209 IOUtils.copyBytes(fsDataInputStream, System.out, 4096, false);
210 //将输入流复制到控制台中。游标在最后的位置,现在将游标指向最前面
211 fsDataInputStream.seek(0);
212 //将输入流复制到控制台中,false表示不会自动关闭流
213 IOUtils.copyBytes(fsDataInputStream, System.out, 4096, false);
214 //关闭输入流
215 fsDataInputStream.close();
216
217 }
218
219
220 /**
221 * 验证上传文件是以packet为单位
222 * 现象:
223 * 当 hhb.xml 中无信息,不输出===
224 * 当 hhb.xml 中信息大于0KB,小于64KB,输出两个 ===
225 * 当 hhb.xml 中信息大于64KB,小于128KB,输出三个 ===
226 * 原因:
227 * 当hhb.xml中无信息的时候,不会与NameNode交互,所以不会输出,当产生交互的时候,就会先输出一个====。
228 * 然后每次上传64KB,小于64KB的时候会输出两个。一个是建立链接时候的输出,一个是上传数据的输出
229 *
230 * @throws IOException
231 */
232 @Test
233 public void testUploadFile() throws IOException {
234 FileInputStream fileInputStream = new FileInputStream(new File("/Users/baiwang/Desktop/hhb.xml"));
235 FSDataOutputStream fsDataOutputStream = fileSystem.create(new Path("/lagou.txt"), () -> {
236 System.err.println("===");
237 }
238 );
239 IOUtils.copyBytes(fileInputStream, fsDataOutputStream, configuration);
240
241 }
242
243}
问题:上传文件的时候报错,如图
原因:客户端创建文件先访问NameNode服务器进行创建文件Meta信息,以及文件树,此时访问的的NameNode的IP,NameNode服务器创建文件成功后,会返回对应dataNode的服务器节点,但此时的节点信息中的ip是与NameNode在同一网络下的内网IP,客户端是无法访问,也就无法写入
解决:在客户端中,或者服务器端etc/hadoop/hdfs-site.xml中配置
1conf.set("dfs.client.use.datanode.hostname","true");
2//设置客户端访问datanode使用hostname来进行访问
使用此配置服务端返回的就是在NameNode的控制台中相应的DataNode对应的HttpAddress
HDFS读写解析
HDFS读数据流程
客户端挑选一条DataNode(物理距离,就近原则,然后随机)服务器,请求读取数据。
DataNode开始传输数据给客户端,(从磁盘里面读取数据输入流,以Packet为单位来做校验,Packet大小为64Kb)
客户端以Packet为单位接收,现在本地缓存,然后写入目标文件
HDFS写数据的流程
客户端通过Distributed FileSystem模块向NameNode请求上传文件,NameNode检查目标文件是否存在,目标文件夹是否存在。
NameNode返回是否可以上传
客户端请求第一个Block上传到那几个DataNode服务器上
NameNode返回3个DataNode节点,分别为dn1、dn2、dn3.
客户端通过FSDataOutputStream模块请求dn1上传数据,dn1收到请求会继续调用dn2,然后dn2调用dn3,将这个通信管道建立完成。
dn1、dn2、dn3逐级应答客户端
客户端开始往dn1上传第一个block(先从磁盘读取数据放到一个本地内存缓存),以Packet为单位,dn1收到一个Packet就会传给dn2,dn2传给dn3,dn1没传一个packet会放入到确认队列等待确认,等待dn2、dn3确认数据传输完成
当一个Block传输完成之后,客户端再次请求NameNode上传第二个block的服务器(重复执行3-7)
一边写入,一边实现副本同步,这样虽然上传数据比较慢,但是保证了数据的安全
NN与2NN
HDFS元数据管理机制
第一阶段:NameNode启动
第一次启动NameNode格式化后,创建fsImages(生成慢,恢复快)和Edits(生成快,恢复慢)文件,如果不是第一次启动,直接加载编辑日志和镜像文件到内存。
客户端对元数据进行增删改的请求
NameNode记录操作日志,更新滚动日志
NameNode在内存中对数据进行增删改。
第二阶段:Secondary NameNode(辅助NameNode维护元数据管理)工作
2nn询问nn是否需要CheckPoint,直接带回nn是否执行检察点操作结果
2nn请求执行CheckPoint。
nn滚动正在写的Edits日志
将滚动前的编辑日志和镜像文件拷贝到2nn
2nn加载编辑日志和镜像文件到内存并合并
生产新的镜像文件fsimage.chkpoint
拷贝fsimage.chpoint到nn
nn将fsimage.chpoint 重新命名为fsimage
checkPoint触发时机
到定时时间
Edits编辑文件满。
Fsimage、edits存放路径:
1/opt/lagou/servers/hadoop-2.9.2/data/tmp/dfs/name/current
FsImage 与Edits 文件解析
NameNode在执行格式化之后,会在/opt/lagou/servers/hadoop-2.9.2/data/tmp/dfs/name/current目录下生成文件:
FsImage文件:是NameNode中元数据的镜像,一般被称为检查点,包含HDFS文件系统所有目录及文件相关信息(Block数量、副本数量、权限)
Edits文件:存储的是客户端对HDFS的增删改操作
*.md5文件:校验文件。
seen_txid保存的是一个数字,对应着最后一个Edits文件名的数字
VERSION:记录namenode的一些版本号信息,比如custerID,namespaceId
NameNode启动时会将FsImage加载到内存中,同时将之前没有合并到元数据的Edits文件加载,集合两个文件的元数据,这样保证了内存中的元数据是最新最全的,
查看FsImage文件内容
1## hdfs oiv -p 文件类型(就是fsimage转成什么类型)-i 镜像文件 -o 输出路径
2cd /opt/lagou/servers/hadoop-2.9.2/data/tmp/dfs/name/current
3hdfs oiv -p XML -i fsimage_0000000000000000505 -o /opt/hhb.xml
hhb.xml文件内容
1<?xml version="1.0" encoding="utf-8"?>
2
3<fsimage>
4 <version>
5 <layoutVersion>-63</layoutVersion>
6 <onDiskVersion>1</onDiskVersion>
7 <oivRevision>826afbeae31ca687bc2f8471dc841b66ed2c6704</oivRevision>
8 </version>
9 <NameSection>
10 <namespaceId>853376951</namespaceId>
11 <genstampV1>1000</genstampV1>
12 <genstampV2>1045</genstampV2>
13 <genstampV1Limit>0</genstampV1Limit>
14 <lastAllocatedBlockId>1073741867</lastAllocatedBlockId>
15 <txid>505</txid>
16 </NameSection>
17 <INodeSection>
18 <lastInodeId>16473</lastInodeId>
19 <numInodes>38</numInodes>
20 <inode>
21 <id>16385</id>
22 <type>DIRECTORY</type>
23 <name/>
24 <mtime>1593694994111</mtime>
25 <permission>root:supergroup:0777</permission>
26 <nsquota>9223372036854775807</nsquota>
27 <dsquota>-1</dsquota>
28 </inode>
29 <inode>
30 <id>16386</id>
31 <type>DIRECTORY</type>
32 <name>test</name>
33 <mtime>1593598825098</mtime>
34 <permission>root:supergroup:0777</permission>
35 <nsquota>-1</nsquota>
36 <dsquota>-1</dsquota>
37 </inode>
38 。。。
39 </INodeSection>
40 <INodeReferenceSection/>
41 <SnapshotSection>
42 <snapshotCounter>0</snapshotCounter>
43 <numSnapshots>0</numSnapshots>
44 </SnapshotSection>
45 <INodeDirectorySection>
46 <directory>
47 <parent>16385</parent>
48 <child>16471</child>
49 <child>16448</child>
50 <child>16473</child>
51 </directory>
52 </INodeDirectorySection>
53 <FileUnderConstructionSection/>
54 <SecretManagerSection>
55 <currentId>0</currentId>
56 <tokenSequenceNumber>0</tokenSequenceNumber>
57 <numDelegationKeys>0</numDelegationKeys>
58 <numTokens>0</numTokens>
59 </SecretManagerSection>
60 <CacheManagerSection>
61 <nextDirectiveId>1</nextDirectiveId>
62 <numDirectives>0</numDirectives>
63 <numPools>0</numPools>
64 </CacheManagerSection>
65</fsimage>
Fsimage里面是不记录block所在的节点信息的,是在集群启动时,NameNode要求DataNode上报数据块信息,并间隔一段时间再次上报,这么做的理由是因为如果FsImage里记录了DataNode信息,但是DataNode挂了,NameNode拿着历史的Fsimage加载到内容,记录的是历史数据,会导致数据不一致。
查看Edits文件内容
1## hdfs oev -p 文件类型(就是edits转成什么类型)-i 编辑日志 -o 输出路径
2cd /opt/lagou/servers/hadoop-2.9.2/data/tmp/dfs/name/current
3hdfs oiv -p XML -i fsimage_0000000000000000505 -o /opt/hhb.xml
hhb2.xml文件内容
1<?xml version="1.0" encoding="UTF-8"?>
2<EDITS>
3 <EDITS_VERSION>-63</EDITS_VERSION>
4 <RECORD>
5 <OPCODE>OP_START_LOG_SEGMENT</OPCODE>
6 <DATA>
7 <TXID>414</TXID>
8 </DATA>
9 </RECORD>
10 <RECORD>
11 <OPCODE>OP_SET_GENSTAMP_V2</OPCODE>
12 <DATA>
13 <TXID>415</TXID>
14 <GENSTAMPV2>1044</GENSTAMPV2>
15 </DATA>
16 </RECORD>
17 <RECORD>
18 <OPCODE>OP_REASSIGN_LEASE</OPCODE>
19 <DATA>
20 <TXID>416</TXID>
21 <LEASEHOLDER>DFSClient_NONMAPREDUCE_-968919369_1</LEASEHOLDER>
22 <PATH>/api_test</PATH>
23 <NEWHOLDER>HDFS_NameNode-2020-07-02 20:31:54,840+0800</NEWHOLDER>
24 </DATA>
25 </RECORD>
26 <RECORD>
27 <OPCODE>OP_CLOSE</OPCODE>
28 <DATA>
29 <TXID>417</TXID>
30 <LENGTH>0</LENGTH>
31 <INODEID>0</INODEID>
32 <PATH>/api_test</PATH>
33 <REPLICATION>3</REPLICATION>
34 <MTIME>1593693116738</MTIME>
35 <ATIME>1593689482882</ATIME>
36 <BLOCKSIZE>134217728</BLOCKSIZE>
37 <CLIENT_NAME></CLIENT_NAME>
38 <CLIENT_MACHINE></CLIENT_MACHINE>
39 <OVERWRITE>false</OVERWRITE>
40 <PERMISSION_STATUS>
41 <USERNAME>root</USERNAME>
42 <GROUPNAME>supergroup</GROUPNAME>
43 <MODE>420</MODE>
44 </PERMISSION_STATUS>
45 </DATA>
46 </RECORD>
47 <RECORD>
48 <OPCODE>OP_TIMES</OPCODE>
49 <DATA>
50 <TXID>418</TXID>
51 <LENGTH>0</LENGTH>
52 <PATH>/lagou.txt</PATH>
53 <MTIME>-1</MTIME>
54 <ATIME>1593693390155</ATIME>
55 </DATA>
56 </RECORD>
57 <RECORD>
58 <OPCODE>OP_TIMES</OPCODE>
59 <DATA>
60 <TXID>419</TXID>
61 <LENGTH>0</LENGTH>
62 <PATH>/yarn-site.xml</PATH>
63 <MTIME>-1</MTIME>
64 <ATIME>1593693395993</ATIME>
65 </DATA>
66 </RECORD>
67 <RECORD>
68 <OPCODE>OP_END_LOG_SEGMENT</OPCODE>
69 <DATA>
70 <TXID>420</TXID>
71 </DATA>
72 </RECORD>
73</EDITS>
CheckPoint的周期
hdfs-default.xml
1<!-- 定时一小时 -->
2<property>
3 <name>dfs.namenode.checkpoint.period</name>
4 <value>3600</value>
5</property>
6<!-- 一分钟检查一次操作次数,当操作次数达到1百万时,SecondaryNameNode执行一次 -->
7<property>
8 <name>dfs.namenode.checkpoint.txns</name>
9 <value>1000000</value>
10 <description>操作动作次数</description>
11</property>
12<property>
13 <name>dfs.namenode.checkpoint.check.period</name>
14 <value>60</value>
15 <description> 1分钟检查一次操作次数</description>
16</property >
NameNode故障处理
NameNode故障后,HDFS集群就无法正常工作,因为HDFS文件系统的元数据需要NameNode来管理并与Client交互,如果元数据损坏和丢失也会有同样的问题
如果元数据丢失如何恢复?
将2NN的元数据拷贝到NN
但是这种情况会存在元数据丢失
搭建HDFS的HA(高可用集群),解决NN的单点故障问题!借助zk实现HA,一个是Active的NameNode,一个是Standby的NameNode
Hadoop的限额与归档以及集群安全模式
高级命令
HDFS文件限额
HDFS文件的限额配置允许我们以文件大小或者文件个数来限制我们在某个目录下上传文件数量或者文件内容。以便我们达到类似百度网盘限制每个用户上传的最大文件量
数量限制
1 # 对hhb文件夹上传数量限制,设置为2,实际限制为2-1
2 hdfs dfsadmin -setQuota 2 /hhb
3 # 上传文件。成功
4 hdfs dfs -copyFromLocal /root/wc.txt /hhb/
5 # 再次上传,报错,错误:copyFromLocal: The NameSpace quota (directories and files) of directory /hhb is exceeded: quota=2 file count=3
6 hdfs dfs -copyFromLocal /root/wc.txt /hhb/hhh.txt
7 # 清除限额,再次上传,成功
8 hdfs dfsadmin -clrQuota /hhb
空间大小限制
1 # 对hhb文件夹上传空间限制,设置为4KB
2 hdfs dfsadmin -setSpaceQuota 4K /hhb
3 # 上传文件报错:put: The DiskSpace quota of /hhb is exceeded: quota = 4096 B = 4 KB but diskspace consumed = 402653646 B = 384.00 MB
4 hdfs dfs -put /opt/lagou/software/hadoop-2.9.2.tar.gz /hhb/
5 # 清除限制空间大小,再次上传,上传成功
6 hdfs dfsadmin -clrSpaceQuota /hhb
1
HDFS安全模式
HDFS集群启动时需要加载FsImage和Edits文件,而这两个文件都没有记录Block对应的DataNode信息,如果client请求下载文件,集群是不能工作的
安全模式是HDFS所处的一种特殊状态,在这种状态下,文件系统只接受读数据请求,而不接受删除、修改等变更请求,在NameNode主节点启动时,HDFS首先进入安全模式,DataNode在启动时会向NameNode汇报可用的Block等状态,当整个系统达到安全标准时,HDFS自动离开安全模式,如果HDFS处于安全模式下,则文件Block不能进行任何的副本复制操作,因此达到最小副本数量是要求基于DataNode启动时的状态来判定的,启动时不会做任何恶德复制(从而达到最小副本数量要求),HDFS集群刚启动的时候,默认30时间时处于安全期的,只有过了30后,集群脱离安全期,然后才可以对集群进行过操作。
1## 进入安全模式
2hdfs dfsadmin -safemode enter
3## 退出安全模式
4hdfs dfsadmin -safemode leave在页面的Summary模块的第二行可以看见当前集群处于不处于安全模式
Hadoop归档技术
主要解决HDFS集群存在大量小文件的问题。
由于大量的小文件会占用NameNode的内存,因此存储大量小文件会造成NameNode内存资源的浪费。
Hadoop存档文件HAR文件,是一个高效的文件存档工具,HAR文件是由一组文件通过archive工具创建而来,在减少了NameNode的内存使用的同时,可以对文件进行透明访问,通俗来说就是HAR文件对NameNode来说是一个文件减少了内存的浪费,对于实际操作还是一个个独立的文件。
目前hhb目录下有两个小文件,执行命令
1hadoop archive -archiveName hhb.har -p /hhb /hhbhar
在hhbhar目录下就会有hhb.har文件,展示hhb.har文件内容
1hdfs dfs -ls -R /hhbhar/hhb.har
内容:
1-rw-r--r-- 3 root supergroup 0 2020-07-04 14:37 /hhbhar/hhb.har/_SUCCESS
2-rw-r--r-- 3 root supergroup 188 2020-07-04 14:37 /hhbhar/hhb.har/_index
3-rw-r--r-- 3 root supergroup 23 2020-07-04 14:37 /hhbhar/hhb.har/_masterindex
4-rw-r--r-- 3 root supergroup 154 2020-07-04 14:37 /hhbhar/hhb.har/part-0
在hhbhar目录下就会有hhb.har文件,展示hhb.har文件内容
1 hdfs dfs -ls -R har:///hhbhar/hhb.har
内容:
1-rw-r--r-- 3 root supergroup 77 2020-07-04 14:11 har:///hhbhar/hhb.har/hhh.txt
2-rw-r--r-- 3 root supergroup 77 2020-07-04 14:09 har:///hhbhar/hhb.har/wc.txt
将/hhb文件夹下面的内容删除,然后将hhb.har内容解压过去
1hdfs dfs -rm /hhb/*
2hdfs dfs -ls /hhb
3hdfs dfs -cp har:///hhbhar/hhb.har/* /hhb/
4hdfs dfs -ls /hhb
以上是关于Hadoop ---- HDFS的主要内容,如果未能解决你的问题,请参考以下文章