Hadoop fs必需要记住的常用命令
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Hadoop fs必需要记住的常用命令相关的知识,希望对你有一定的参考价值。
参考技术A 1,Hadoop fs –fs [local | ]:声明Hadoop使用的文件系统,如果不声明的话,使用当前配置文件配置的,按如下顺序查找:hadoop jar里的hadoop-default.xml->$HADOOP_CONF_DIR下的hadoop-default.xml->$HADOOP_CONF_DIR下的hadoop-site.xml。使用local代表将本地文件系统作为hadoop的DFS。如果传递uri做参数,那么就是特定的文件系统作为DFS。2,hadoop fs –ls :等同于本地系统的ls,列出在指定目录下的文件内容,支持pattern匹配。输出格式如filename(full path) size.其中n代表replica的个数,size代表大小(单位bytes)。3,hadoop fs –lsr :递归列出匹配pattern的文件信息,类似ls,只不过递归列出所有子目录信息。
4,hadoop fs –du :列出匹配pattern的指定的文件系统空间总量(单位bytes),等价于unix下的针对目录的du –sb /*和针对文件的du –b ,输出格式如name(full path) size(in bytes)。
5,hadoop fs –dus :等价于-du,输出格式也相同,只不过等价于unix的du -sb。
6,hadoop fs –mv :将制定格式的文件 move到指定的目标位置。当src为多个文件时,dst必须是个目录。
7,hadoop fs –cp :拷贝文件到目标位置,当src为多个文件时,dst必须是个目录。
8,hadoop fs –rm [-skipTrash] :删除匹配pattern的指定文件,等价于unix下的rm 。
9,hadoop fs –rmr [skipTrash] :递归删掉所有的文件和目录,等价于unix下的rm –rf 。
10,hadoop fs –rmi [skipTrash] :等价于unix的rm –rfi 。
11,hadoop fs –put … :从本地系统拷贝文件到DFS。
12,hadoop fs –copyFromLocal … :等价于-put。
13,hadoop fs –moveFromLocal … :等同于-put,只不过源文件在拷贝后被删除。
14,hadoop fs –get [-ignoreCrc] [-crc] :从DFS拷贝文件到本地文件系统,文件匹配pattern,若是多个文件,则dst必须是目录。
15,hadoop fs –getmerge :顾名思义,从DFS拷贝多个文件、合并排序为一个文件到本地文件系统。
16,hadoop fs –cat :展示文件内容。
17,hadoop fs –copyToLocal [-ignoreCrc] [-crc] :等价于-get。
18,hadoop fs –mkdir :在指定位置创建目录。
19,hadoop fs –setrep [-R] [-w] :设置文件的备份级别,-R标志控制是否递归设置子目录及文件。
20,hadoop fs –chmod [-R] PATH…:修改文件的权限,-R标记递归修改。MODE为a+r,g-w,+rwx等,OCTALMODE为755这样。
21,hadoop fs -chown [-R] [OWNER][:[GROUP]] PATH…:修改文件的所有者和组。-R表示递归。
22,hadoop fs -chgrp [-R] GROUP PATH…:等价于-chown … :GROUP …。
23,hadoop fs –count[-q] :计数文件个数及所占空间的详情,输出表格的列的含义依次为:DIR_COUNT,FILE_COUNT,CONTENT_SIZE,FILE_NAME或者如果加了-q的话,还会列出QUOTA,REMAINING_QUOTA,SPACE_QUOTA,REMAINING_SPACE_QUOTA。
结语
感谢您的观看,如有不足之处,欢迎批评指正。
如果有对大数据感兴趣的小伙伴或者是从事大数据的老司机可以加群:
658558542
欢迎大家进群交流讨论,学习交流,共同进步。(里面还有大量的免费资料,帮助大家在成为大数据工程师,乃至架构师的路上披荆斩棘!)
最后祝福所有遇到瓶疾且不知道怎么办的大数据程序员们,祝福大家在往后的工作与面试中一切顺利。
hdfs常用命令
hdfs常用操作命令:
1hdfs dfs # 方式一 可查看命令
2hadoop fs # 方式二 可查看命令
查看目录
1-ls
2hdfs dfs -ls # 方式一
3hadoop fs -ls # 方式二
4hdfs dfs -ls -R / # 查看hdfs系统下所有目录和文件
类似的
1# 根目录创建文件夹
2-mkdir /log # 根目录下创建空白文件夹log
3-mkdir -p /test1/test2 # 创建test2的同时创建test1
4
5# 上传本地文件
6-put file /tar # 上传本地文件file到hdfs目录tar
7-put file / # 上传本地文件file到hdfs根目录
8-put file1 /file2 # 将本地文件file1上传到hdfs中并重命名为file2
9-put file1 file2 # 将本地文件file1上传到hdfs的user/ubuntu/中并重命名为file2
10-put test / # 上传本地目录test到hdfs根目录
11-put - /test3.txt # 在根目录下新建文件test3.txt,并可键入内容,crtl+d结束,与cat不同的是这个命令要求test3.txt文件原本不存在,否则会执行失败。
12
13# 移动文件
14-moveFromLocal local_file /hdfs_file # 将本地文件移到hdfs文件系统,是真正的移,不是copy
15如果hdfs_file是已存在的目录,那就是移动到这个目录下,如果不是,那就是重命名为这个文件。
16-mv /hdfs_file1 /hdfs_file1 # 移动hdfs中的文件
17
18# 复制文件
19-copyFromLocal local_file /hdfs_file # 将本地文件复制到hdfs文件系统
20如果hdfs_file是已存在的目录,那就是复制到这个目录下,如果不是,那就是复制后重命名这个文件。
21-cp /hdfs_file1 /hdfs_file1 # 复制hdfs中的文件
22
23-get /hdfs_file local_file # 将hdfs文件系统文件复制到本地
24
25# 删除文件
26-rm -r /file # 删除文件和目录(包括目录下的文件)
27-rmr /file # 等同于-rm -r(该命令已被取消掉,不赞成使用)
28-rm /file # 删除文件,不支持删除目录
29
30# 追加内容
31-appendToFile local_file /hdfs_file # 将本地文件内容追加到hdfs文件的末尾
32
33# 显示末尾
34-tail /file # 显示文件的末尾内容
35
36# 修改文件所属和权限
37-chgrp
38-chown
39-chmod
40
41# 合并文件(下面两种中的一种,暂未尝试,偏向第二种)
42-getmerge file1 file2 file3 # 将hdfs的file1,file2,file3文件内容合并
43-getmerge /file1 file2 # 将hdfs的file1目录下文件合并命名为file2
44
45# 查看hdfs可用系统
46-df -h / # /和-h可不加是一样的功能
47
48# 查看根目录下文件文件夹的信息大小
49-du / # /必须加
根目录的‘/’是一定要的,否则就不是在hdfs的根目录下,而是在hdfs下新建user/ubuntu/文件夹,文件存到这个文件夹下。
‘/’代表的是hdfs系统的根目录,不加则是默认目录user/ubuntu/,但是这个目录没创建时,从这个路径下访问的命令就会失败。但那些对该目录是否存在不影响的命令会执行成功。
以上是关于Hadoop fs必需要记住的常用命令的主要内容,如果未能解决你的问题,请参考以下文章