Die einfachste Form der informationstheoretischen CLT ist die folgende:
Sei iid mit Mittelwert und Varianz . Sei die Dichte der normalisierten Summe und die Standard-Gaußsche Dichte. Dann besagt die informationstheoretische CLT, dass wenn für einige n endlich ist , dann D (f_n \ | \ phi) \ bis 0 als n \ to \ infty .
Sicherlich ist diese Konvergenz in gewissem Sinne "stärker" als die in der Literatur gut etablierten Konvergenzen, Konvergenz in der Verteilung und Konvergenz in Metrik, dank Pinskers Ungleichung . Das heißt, Konvergenz in der KL-Divergenz impliziert Konvergenz in der Verteilung und Konvergenz in der Entfernung.
Ich möchte zwei Dinge wissen.
Was ist so groß , über das Ergebnis ?
Ist es nur , weil der Grund im dritten Absatz genannten wir sagen Konvergenz in KL-Divergenz ( dh , ) ist stärker?
NB: Ich habe diese Frage vor einiger Zeit in math.stackexchange gestellt, wo ich keine Antwort bekommen habe.