Diese weisen Herren,
Kotz, S., Kozubowski, TJ & Podgorski, K. (2001). Die Laplace-Verteilung und Verallgemeinerungen: Ein Rückblick auf Anwendungen in den Bereichen Kommunikation, Wirtschaft, Ingenieurwesen und Finanzen (Nr. 183). Springer.
Fordern Sie uns mit einer Übung heraus:
Der Beweis kann dem informationstheoretischen Beweis folgen, dass das Normal die maximale Entropie für den gegebenen Mittelwert und die gegebene Varianz ist. Insbesondere: Sei die obige Laplace-Dichte und sei eine beliebige andere Dichte, die jedoch den gleichen Mittelwert und die gleiche mittlere absolute Abweichung aufweist. Dies bedeutet, dass folgende Gleichheit gilt:f(x)g(x)
Eg(|X−c1|)=∫g(x)|x−c1|dx=c2=∫f(x)|x−c1|dx=Ef(|X−c1|)[1]
Betrachten Sie nun die
Kullback-Leibler-Divergenz der beiden Dichten:
0≤DKL(g||f)=∫g(x)ln(g(x)f(x))dx=∫g(x)lng(x)dx−∫g(x)lnf(x)dx[2]
Das erste Integral ist das Negativ der (Differential-) Entropie von , bezeichnet es . Das zweite Integral ist (explizit das Laplace-PDF schreiben)g−h(g)
∫g(x)ln[f(x)]dx=∫g(x)ln[12c2exp{−1c2|x−c1|}]dx
=ln[12c2]∫g(x)dx−1c2∫g(x)|x−c1|dx
Das erste Integral integriert sich zur Einheit und verwendet auch Gl. wir
[1]
∫g(x)ln[f(x)]dx=−ln[2c2]−1c2∫f(x)|x−c1|dx=−(ln[2c2]+1)
Dies ist jedoch das Negative der Differentialentropie des Laplace, bezeichne es .
−h(f)
Einfügen dieser Ergebnisse in Gl. wir haben
Da willkürlich war, beweist dies, dass die oberhalb der Laplace-Dichte ist die maximale Entropie unter allen Verteilungen mit den obigen Vorschriften.[2]
0≤D(g||f)=−h(g)−(−h(f))⇒h(g)≤h(f)
g