删除所有重复行的出现

5

如果我想删除某些字段重复的行,则使用sort -u -k n,n。但这会保留一次出现。如果我想删除所有重复项,是否有任何快速的bash或awk方法可以做到这一点?

例如,我有:

1   apple   30
2   banana   21
3   apple   9
4   mango   2

我希望:

2 banana   21
4 mango   2

我将使用perl中的预排序(pre-sort)和哈希(hash)技术,但对于非常大的文件,这可能会变得很慢。

2个回答

4
这将使你的输出与输入顺序保持一致:
awk '{seen[$2]++; a[++count]=$0; key[count]=$2} END {for (i=1;i<=count;i++) if (seen[key[i]] == 1) print a[i]}' inputfile

2
尝试使用 sort -k <your fields> | awk '{print $3, $1, $2}' | uniq -f2 -u | awk '{print $2, $3, $1}' 命令来删除所有重复的行(不保留任何副本)。如果您不需要最后一个字段,请将第一个 awk 命令更改为 cut -f 1-5 -d ' ',将 uniq 中的 -f2 更改为 -f1,并删除第二个 awk 命令。请注意保留 HTML 标签,并使内容更加通俗易懂。

我认为这个不起作用,uniq 的工作方式与 sort -u 相同。 - annavt
不要使用 sort -u,它并不能实现你想要的功能。相反,你应该使用 uniq -u - Jeremiah Willcock
我有什么遗漏吗?$ sort ~/Desktop/fruit.txt | awk '{print $3, $1, $2}' | uniq -f1 -u | awk '{print $2, $3, $1}' 1 apple 30 2 banana 21 3 apple 9 4 mango 2 $ sort -k2,2 ~/Desktop/fruit.txt | awk '{print $3, $1, $2}' | uniq -f1 -u | awk '{print $2, $3, $1}' 1 apple 30 3 apple 9 2 banana 21 4 mango 2 - annavt
答案有个错误 - uniq 中的 -f1 需要改为 -f2。我已经修改了答案。 - Jeremiah Willcock

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接