Marcio de Araujo Benedito wrote:
Tenho um arquivo texto que é resultado de uma consluta a um banco de dados. Porém, este arquivo tem vários dados duplicados porquê os registros estavam corrompidos, e preciso remover estes dados para refazer a database. A estrutura do arquivo é a seguinte: dado1 dado1 dado2 dado2 dado3 dado4 dado5 dado5 Como fazer para "limpar" este arquivo, eliminando as linhas repetidas??? Tentei com o sed, mas não vi na manpage dele uma sintaxe que fizesse isso. O arquivo em questão tem umas 10000 linhas ...
$ man uniq ... uniq - remove duplicate lines from a sorted file ... Faça um cat arq1 | sort | uniq que estará tudo resolvido. -- Marcos