Entropie: Je kleiner die Auftrittswahrscheinlichkeit eines Zeichens ist, desto höher ist seine Information. Andersherum ist die Information eines Zeichens gering, wenn es oft vorkommt.
https://de.wikipedia.org/wiki/Entropie_(Informationstheorie)
Übertragen auf Kombinationen von Zeichen zu Wörtern und sogar Sätzen folgt darauf direkt das folgende: Je öfter etwas erwähnt wird umso unwichtiger erscheint es und ich denke darin steckt viel Wahrheit