Rechercher un file et exclure des lignes avec une string spécifiée

J'ai un grand file journal qui contient de nombreuses lignes de la même input, appelons-le "repeat-info". Voici à quoi peut ressembler une partie du journal:

1508294219 repeat-info 1508294219 repeat-info 1508294219 Log information 1 1508294219 Log information 2 1508294219 repeat-info 1508294219 Log information 3 1508294219 repeat-info 

Existe-t-il une command qui peut afficher les informations dans le file journal et exclure les informations répétées? Cela devient un problème si je dois utiliser more file.log et passer en revue toutes les informations récurrentes pour find ce que je veux regarder.

Je lis à travers les pages man pour sed et awk comme je les ai vus apparaître dans les searchs pour ma question, mais je n'ai rien trouvé de concluant qui ferait ce dont j'ai besoin.

Je cherchais à travers les questions plus anciennes et ai trouvé cette question qui est liée à la mienne.

Je cherchais un moyen de le faire avec une seule command, ou deux pipés set, sans avoir à créer un script.

Toute aide est appréciée!

Il y a quelques façons de le faire. Le meilleur serait grep :

 grep -v 'repeat-info' file.log 

D'autres moyens:

 sed '/repeat-info/d' file.log sed -n '/repeat-info/!p' file.log awk '!/repeat-info/' file.log