Linux下文本文件合并和去除重复操作

Linux下处理文本的能力还是很强大的。
本文主要涉及到的命令为cat  uniq sort。

一 命令简单介绍

cat:将文本文件读出来 (concatenate files and print on the standard output)
文件去重合并的前提条件是先取出文件的内容。

uniq: 用来处理重复的行。(report or omit repeated lines)
Filter  adjacent matching lines from INPUT (or standard input), writing to OUTPUT (or  standard output).
从输入或者标准输入中过滤邻近的行,写到输出文件或者标准输出中。所以此命令只能处理邻近的行,
如果对两个文件进行合并去重,则必须首先对其排序,实现一一对应,否则去重失败。

sort:对文本的行进行排序(sort lines of text files)
Write sorted concatenation of all FILE(s) to standard output.
对于去重而言使用默认排序方式就可以了。

paste:merge lines of files
将按行将不同文件行信息放在一行。缺省情况下, p a s t e连接时,用空格或t a b键分隔新行中不同文本,除非指定- d选项,它将成为域分隔符。

二 实例应用:

1、 两个文件的交集、并集(前提条件:每个文件中不得有重复 也可以是多个文件)

(1)、取出两个文件的并集(重复的行只保留一份)
cat file1 file2 | sort | uniq > file3 

(2)、取出两个文件的交集(只留下同时存在于两个文件中的文件)
cat file1 file2 | sort | uniq -d > file3

(3)、 删除交集,留下其他的行
cat file1 file2 | sort | uniq -u > file3

2、两个文件合并

(1)、 一个文件在上,一个文件在下
cat file1 file2 > file3

(2)、 一个文件在左,一个文件在右
paste file1 file2 > file3

3、一个文件去掉重复的行

(1)、 重复的多行记为一行
sort file |uniq

(2)、 重复的行全部去掉
sort file |uniq -u

你可能感兴趣的:(shell)