Linux文件内容去重 Linux实现文件内容去重及求交并差集

软件发布|下载排行|最新软件

当前位置:首页IT学院IT技术

Linux文件内容去重 Linux实现文件内容去重及求交并差集

楔子   2021-02-02 我要评论
想了解Linux实现文件内容去重及求交并差集的相关内容吗,楔子在本文为您仔细讲解Linux文件内容去重的相关知识和一些Code实例,欢迎阅读和指正,我们先划重点:Linux,文件内容,去重,交集,并集,下面大家一起来学习吧。

一、数据去重

日常工作中,使用Hive或者Impala查询导出来可能会存在数据重复的现象,但又不想重新执行一遍查询(查询时间稍长,导出文件内容多),因此想到了使用Linux命令将文件的内容重复数据进行去除。

案例如下:

可以看到aaa.txx有3条重复数据

想去掉多余的数据,只保留一条

sort aaa.txt | uniq > bbb.txt

将aaa.txt文件中重复数据去掉,输出到bbb.txt

可以看到bbb.txt文件中只保留了一条数据

二、数据交、并、差

1)、交集(相当于user_2019 inner join user_2020 on user_2019.user_no=user_2020.user_no)

sort user_2019.txt user_2020.txt | uniq -d

2)、并集(相当于 user_2019.user_no union user_2020.user_no)

sort user_2019.txt user_2020.txt | uniq

3)、差集

user_2019.txt-user_2020.txt

sort user_2019.txt user_2020.txt user_2020.txt | uniq -u

user_2020.txt - user_2019.txt:

sort user_2020.txt user_2019.txt user_2019.txt | uniq -u

Copyright 2022 版权所有 软件发布 访问手机版

声明:所有软件和文章来自软件开发商或者作者 如有异议 请与本站联系 联系我们