Entropie genauer betrachtet

Entropie: Je kleiner die Auftrittswahrscheinlichkeit eines Zeichens ist, desto höher ist seine Information. Andersherum ist die Information eines Zeichens gering, wenn es oft vorkommt.

https://de.wikipedia.org/wiki/Entropie_(Informationstheorie)

Übertragen auf Kombinationen von Zeichen zu Wörtern und sogar Sätzen folgt darauf direkt das folgende: Je öfter etwas erwähnt wird umso unwichtiger erscheint es und ich denke darin steckt viel Wahrheit

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.