Ich bin seit langem mit der Verwirrung in Bezug auf Entropie konfrontiert und wäre verpflichtet, wenn die folgenden Fragen in weniger technischer Fachsprache beantwortet würden. Dem Link folgen Verschiedene Arten von Entropie werfen die folgenden Fragen auf
- Entropie - Es ist erwünscht, dass die Entropie des Systems maximiert wird. Das Maximieren der Entropie bedeutet, dass kein Symbol besser ist als die anderen, oder wir wissen nicht, was das nächste Symbol / Ergebnis sein würde. Die Formel gibt jedoch ein negatives Vorzeichen vor der Summierung der Wahrscheinlichkeitslogarithmen an. Das heißt, wir maximieren einen negativen Wert !! Wenn dann ein ursprüngliches Rohsignal quantisiert wird und die Entropie der quantisierten Information berechnet wird und als geringer als die ursprüngliche Entropie befunden wird, würde dies einen Informationsverlust bedeuten. Warum wollen wir also die Entropie maximieren, da dies bedeuten würde, dass wir die Unsicherheit des nächsten Symbols maximieren, während wir sicher sein wollen, wie das nächste Auftreten des Symbols aussehen würde?
- Was sind die Unterschiede zwischen Shannons Entropie, topologischer Entropie und Quellenentropie?
- Was genau ist die Bedeutung der Kolgomorov-Komplexität oder der Kolgomorov-Entropie? Wie hängt es mit Shannons Entropie zusammen?
- Welche Informationen vermitteln gegenseitige Informationen zwischen zwei Vektoren?