Ich kenne Shannons Arbeit mit Entropie, aber in letzter Zeit habe ich an prägnanten Datenstrukturen gearbeitet, in denen empirische Entropie häufig als Teil der Speicheranalyse verwendet wird.
Shannon definierte die Entropie der von einer diskreten Informationsquelle erzeugten Information als , wobei p i die Wahrscheinlichkeit des Auftretens des Ereignisses i ist, z. B. eines bestimmten erzeugten Zeichens, und es gibt k mögliche Ereignisse.
Wie von MCH in den Kommentaren ausgeführt, ist die empirische Entropie die Entropie der empirischen Verteilung dieser Ereignisse und ist somit gegeben durch wobeinidie Anzahl der beobachteten Ereignisseiundndie Gesamtzahl der beobachteten Ereignisse ist. Dies wird alsempirische Entropie nullter Ordnung bezeichnet. Shannons Begriff derbedingten Entropiehat eine ähnlicheempirische Versionhöherer Ordnung.
Shannon hat den Begriff empirische Entropie nicht verwendet, obwohl er sicherlich einen Teil der Anerkennung für dieses Konzept verdient. Wer hat diese Idee zuerst verwendet und wer hat zuerst den (sehr logischen) Namen empirische Entropie verwendet , um sie zu beschreiben?