学习笔记Hadoop—— Hadoop基础操作—— HDFS常用Shell操作

Posted 别呀

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了学习笔记Hadoop—— Hadoop基础操作—— HDFS常用Shell操作相关的知识,希望对你有一定的参考价值。

三、HDFS常用Shell操作

3.1、HDFS文件系统

HDFS Shell 指的是可以使用类似shell的命令来直接和Hadoop分布式文件系统(HDFS)进行交互。

使用命令:

bin/hadoop fs <args> 
bin/hdfs dfs <args>

参数中的路径使用scheme://authority/path 的格式,如默认配置的是hdfs,那么路径如: hdfs://namenodehost:port/parent/child 。

如果使用相对路径,那么当前的工作目录就是/user/{username}, 比如当前是root账号,那么工作目录就是/user/root。

示例:

3.2、常用Shell命令-appendToFile

用法

hadoop fs -appendToFile <localsrc> ... <dst>

示例:

hadoop fs -appendToFile localfile /user/hadoop/hadoopfile
hadoop fs -appendToFile localfile1 localfile2 /user/hadoop/hadoopfile
hadoop fs -appendToFile localfile hdfs://nn.example.com/hadoop/hadoopfile
hadoop fs -appendToFile - hdfs://nn.example.com/hadoop/hadoopfile

3.3、常用Shell命令-cat

用法

hadoop fs -cat [-ignoreCrc] URI [URI ...]

示例:

hadoop fs -cat hdfs://nn1.example.com/file1 hdfs://nn2.example.com/file2
hadoop fs -cat file:///file3 /user/hadoop/file4

3.4、常用Shell命令-copyFromLocal | put

用法

hadoop fs -put [-f] [-p] [-l] [-d] [-t <thread count>] [ - | <localsrc1> .. ]. <dst>

示例:

hadoop fs -put localfile /user/hadoop/hadoopfile
hadoop fs -put -f localfile1 localfile2 /user/hadoop/hadoopdir
hadoop fs -put -d localfile hdfs://nn.example.com/hadoop/hadoopfile
hadoop fs -put - hdfs://nn.example.com/hadoop/hadoopfile

3.5、常用Shell命令-cp

用法

hadoop fs -cp [-f] [-p | -p[topax]] URI [URI ...] <dest>

示例:

hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2
hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir

可选项:
-f : 如果目标文件存在,则覆写目标文件;
-p : 保存文件的属性,[topx] (timestamps, ownership, permission, ACL, XAttr).

3.6、常用Shell命令-du

用法

hadoop fs -du [-s] [-h] [-v] [-x] URI [URI ...]

可选项:
-s : 统计文件夹;
-h : 格式化友好输出;
-v : 显示列名;
-x : 去除snapshots 进行计算;

3.7、常用Shell命令-copyToLocal | get

用法

hadoop fs -get [-ignorecrc] [-crc] [-p] [-f] <src> <localdst>

示例:

hadoop fs -get /user/hadoop/file localfile
hadoop fs -get hdfs://nn.example.com/user/hadoop/file localfile

3.8、常用Shell命令-ls

用法

hadoop fs -ls [-C] [-d] [-h] [-q] [-R] [-t] [-S] [-r] [-u] <args>

可选项:
-C : 只显示文件及文件夹 ; -d : 只显示给定文件夹 ; -h : 格式化文件大小显示
-q : 使用?替代不可打印字符 ; -R : 递归显示 ;-t : 按照最近修改文件排序
-S : 按照文件大小排序 ; -r : 翻转排序规则 ; -u : 使用创建时间进行排序

3.9、常用Shell命令-mkdir

用法

hadoop fs -mkdir [-p] <paths>

示例:

hadoop fs -mkdir /user/hadoop/dir1 /user/hadoop/dir2
hadoop fs -mkdir hdfs://nn1.example.com/user/hadoop/dir hdfs://nn2.example.com/user/hadoop/dir

3.10、常用Shell命令-rm

用法

hadoop fs -rm [-f] [-r |-R] [-skipTrash] [-safely] URI [URI ...]

可选项:
-f : 忽略错误信息 ; -R : 递归删除 ; -r : -R
-skipTrash : 不放回收站,直接删除 ; -safely : 强制确认是否需要删除

3.11、HDFS UI交互

开启方法:
① 终端开启HDFS:hadoop的sbin目录下执行./start-dfs.sh
② 浏览器网址输入:master:50070

文件基本信息:

以上是关于学习笔记Hadoop—— Hadoop基础操作—— HDFS常用Shell操作的主要内容,如果未能解决你的问题,请参考以下文章

学习笔记Hadoop—— Hadoop基础操作—— Hadoop安全模式Hadoop集群基本信息

学习笔记Hadoop—— Hadoop基础操作—— MapReduce常用Shell操作MapReduce任务管理

学习笔记Hadoop—— Hadoop基础操作—— YARN资源管理与调度策略

大数据学习笔记~Hadoop基础篇

Hadoop学习笔记之Hadoop基础

Hadoop学习笔记—19.Flume框架学习