大数据运维日记之清理磁盘

Posted Maynor学长

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了大数据运维日记之清理磁盘相关的知识,希望对你有一定的参考价值。

对于很多CDH使用者来说,随着时间的推移,磁盘空间会越来越少,除了一部分数据占用外,其他的一部分空间不知道保存着什么数据,无法清理,本博主今天就分享一下定期清理CDH集群指南。

1.由于HDFS有回收站,如何设置不合理的话,它会长时间占用集群资源,因此我们首先清理HDFS回收站。
在平时删除HDFS文件时,可以使用命令:hdfs dfs -rm -skipTrash /path/to/file/you/want/to/remove/permanently,这样的话文件就直接删除了,不会放在回收站(注:此种删除为永久删除,无法恢复数据),用这个命令删除HDFS数据的话,后期就无需清空HDFS回收站
清空回收站命令:hdfs dfs -expunge (注:执行完命令后,回收站的数据不会立即被清理,而是先打了一个checkpoint。显示的是一分钟后清除。)
2.清空spark任务执行历史记录(如果通过spark任务写入大量数据到大数据平台,那么spark任务历史记录会占很大空间,因此需要我们定期清理)
清除掉 /user/spark/applicationHistory/*路径下的文件(查看该路径下文件命令:hadoop fs -ls /user/spark/applicationHistory,查看该路径下文件占用磁盘大小:hadoop fs -du -h /user/spark/applicationHistory)
清掉spark任务执行历史记录后再把回收站清理一下。
3.yarn缓存文件清理
/yarn/nm下,主要清空filecahe里的文件,这部分最站磁盘
/yarn/container-logs下,如果数据量大的话也要清理掉
4.hdfs数据做定期处理
5.集群各组件日志做定期处理

以上是关于大数据运维日记之清理磁盘的主要内容,如果未能解决你的问题,请参考以下文章

SQL SERVER运维日记--收缩数据库

Linuxlinux之如何清理磁盘空间

PG-日常运维

linux学习日记之磁盘的管理

大数据库运维

MAC磁盘清理大文件(清理其他卷宗)