linux 文件内容查找去重统计

Posted 马骝仔会上树

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了linux 文件内容查找去重统计相关的知识,希望对你有一定的参考价值。

cat filename | awk ‘{print $1}‘ | sort | uniq

cat filename读取一个文件

awk ‘{print $1}‘ 以默认字符分割文件每一行内容,取第一个数据

sort 对内容进行正序排序    sort -r 倒序  -n 依照数值的大小排序

uniq 对内容进行去重  /   uniq -c 统计重复次数

cat filename | awk ‘{print $1}‘ | sort | uniq -c | sort -nr ( 去重文件中重复内容,并且按照重复次数进行倒序)

cat test1.txt | awk ‘{print $1}‘ | grep -E "^4" | sort | uniq -c | sort -nr

grep -E 正则表达式,利用正则表达式过滤结果

cat test1.txt | awk ‘{print $1}‘ | sort | uniq -c | sort -r | head -n 3

head -n 3 显示前3行(从第一行开始)

tail -n 3 显示后3行(从最末行开始)

 

以上是关于linux 文件内容查找去重统计的主要内容,如果未能解决你的问题,请参考以下文章

Linux中统计,检索和过滤文件内容的命令以及压缩归档命令(wc,grep,gzip,bzip2,

文件管理——命令4

CentOS 文件管理

Linux 目录和文件管理

CentOS 文件管理命令

文件管理命令四