1)、----使用hdfs命令,切换hdfs用户
hdfs dfs -du -h /zxvmax/telecom/union/dm/dm_mdn_imsi_terni //查看分区大小
hdfs dfs -cp /zxvmax/telecom/union/dm/dm_mdn_imsi_ternimal/p_provincecode=510000/p_date=2017-03-10/* /zxvmax/telecom/union/dm/dm_mdn_imsi_ternimal/p_provincecode=510000/p_date=2017-03-20/ *//将数据从2017-03-10到2017-03-20
hdfs dfs -rm -r
hdfs dfs -mkdir -p //目录
hdfs dfs -mkdir
hdfs dfs -mv
2)、--put--从本地导入数据到spark表(hdfs文件系统)
在本地处理好文件,比如:处理成csv文件,把tab键,转换成 ,保存文件成.csv
上传文件到:/home/sswk_data_sever/dataHome/data/123
su hdfs -----切换用户
hdfs dfs -mkdir /zxvmax/telecom/cfg/cfg_subway_station ----新建hdfs目录
hdfs dfs -put point.csv /zxvmax/telecom/cfg/cfg_subway_station ------新建当前hdfs文件夹
hdfs dfs -du -h /zxvmax/telecom/cfg/cfg_subway_station/point.csv -----查看hdfs数据是否导入
select * from cfg_subway_station limit 10; //最后再查看数据在spark上是否有
3)、--get--把hdfs上面的数据拿到集群本地目录
方法一:hdfs dfs -getmerge /zxvmax/telecom/lte/dm/dm_plan_point_stat_d/p_provincecode=510000/p_date=2017-10-19/ dm_plan_point_stat_d.csv
方法二:hdfs dfs -get /zxvmax/telecom/lte/dm/dm_plan_grid_agps_d/p_provincecode=510000/p_date=2020-01-01/
cat * >a.csv
4)、----拷贝数据:从环境234到154的hdfs的数据拷贝
hdfs dfs -cp /zxvmax/telecom/cfg/cfg_sector_c/p_provincecode=510000/p_date=2017-11-29/* hdfs://133.37.31.154:9000/zxvmax/telecom/cfg/cfg_sector_c/p_provincecode=510000/p_date=2017-11-29/ */
5)、----查看hdfs的服务的状态(主备节点的状态是随机动态切换的)
hdfs haadmin -getServiceState nn1
hdfs haadmin -getServiceState nn2