"Entropie" erfasst grob den Grad der "Information" in einer Wahrscheinlichkeitsverteilung.
Für diskrete Verteilungen gibt es eine weitaus genauere Interpretation: Die Entropie einer diskreten Zufallsvariablen ist eine Untergrenze für die erwartete Anzahl von Bits, die zur Übertragung des Ergebnisses der Zufallsvariablen erforderlich sind.
Aber für eine kontinuierliche Zufallsvariable gibt es unzählige unendliche Ergebnisse, so dass wir nicht einmal anfangen können zu übertragen, welches genaue Ergebnis in einer endlichen Folge von Bits aufgetreten ist.
Was ist eine äquivalente Interpretation der Entropie für kontinuierliche Variablen?