Gibt es eine Verwendung für die Menge in der Statistik oder Informationstheorie?
Gibt es eine Verwendung für die Menge in der Statistik oder Informationstheorie?
Antworten:
Mit eine Wahrscheinlichkeitsdichtefunktion (entweder in Bezug auf die Lebesgue oder das Zählmaß) für die Menge bezeichnet
Renyi stellte dies in seiner Arbeit vor
A. Renyi, zu Informations- und Entropiemaßnahmen , Proc. 4. Berkeley Symp. auf Math., Stat. und Prob. (1960), S. 547–561.
Das ist nicht nur für die Ideen, sondern auch für den vorbildlichen Ausstellungsstil eine Lektüre wert.
Der Fall ist eine der gebräuchlichsten Entscheidungen für und dieser Sonderfall wird (auch) oft als Renyi-Entropie bezeichnet. Hier sehen wir, dass für eine Zufallsvariable, die mit der Dichte .α H 2 ( f ) = - log ( ∫ f 2 d μ ) = - log ( E f ( X ) ) f
Beachten Sie, dass eine konvexe Funktion ist. Aufgrund der Jensen-Ungleichung gilt also wobei die rechte Seite die Shannon-Entropie bezeichnet. Daher liefert die Renyi-Entropie eine Untergrenze für die Shannon-Entropie und ist in vielen Fällen einfacher zu berechnen.H 2 ( f ) = - log ( E f ( X ) ) ≤ E ( - log f ( X ) ) = - E log f ( X ) = H ( f )
Ein weiterer natürlicher Fall, in dem die Renyi-Entropie auftritt, ist die Betrachtung einer diskreten Zufallsvariablen und einer unabhängigen Kopie . In einigen Szenarien wollen wir die Wahrscheinlichkeit wissen, dass , was durch eine Elementarberechnung
Hier bezeichnet die Dichte in Bezug auf das Zählmaß auf dem Wertesatz .
Die (allgemeine) Renyi-Entropie hängt anscheinend auch mit der freien Energie eines Systems im thermischen Gleichgewicht zusammen, obwohl ich persönlich nicht darüber informiert bin. Ein (sehr) aktuelles Papier zu diesem Thema ist
JC Baez, Renyi-Entropie und freie Energie , arXiv [quant-ph] 1101.2098 (Feb. 2011).