Ich bin mit Fisher-Informationen nicht einverstanden, was es misst und wie es hilfreich ist. Auch die Beziehung zu Cramer-Rao ist mir nicht klar.
Kann jemand bitte eine intuitive Erklärung dieser Konzepte geben?
Ich bin mit Fisher-Informationen nicht einverstanden, was es misst und wie es hilfreich ist. Auch die Beziehung zu Cramer-Rao ist mir nicht klar.
Kann jemand bitte eine intuitive Erklärung dieser Konzepte geben?
Antworten:
Hier erkläre ich, warum die asymptotische Varianz des Maximum-Likelihood-Schätzers die Cramer-Rao-Untergrenze ist. Hoffentlich bietet dies einen Einblick in die Relevanz der Fisher-Informationen.
Die statistische Inferenz erfolgt unter Verwendung einer Wahrscheinlichkeitsfunktion die Sie aus den Daten konstruieren. Die Punktschätzung θ ist der Wert, maximiert L ( θ ) . Der Schätzer θ eine Zufallsvariable ist , aber es hilft , zu erkennen , dass die Wahrscheinlichkeitsfunktion L ( θ ) ist ein „random curve“.
Hier nehmen wir iid-Daten an, die aus einer Verteilung , und definieren die Wahrscheinlichkeit L ( θ ) = 1
Der Parameter hat die Eigenschaft, dass er den Wert der "wahren" Wahrscheinlichkeit E L ( & thgr; ) maximiert . Die "beobachtete" Wahrscheinlichkeitsfunktion L ( & thgr; ), die aus den Daten aufgebaut ist, ist jedoch geringfügig von der wahren Wahrscheinlichkeit "ab". Wie Sie sich vorstellen können, konvergiert die "beobachtete" Wahrscheinlichkeit mit zunehmender Stichprobengröße mit der Form der tatsächlichen Wahrscheinlichkeitskurve. Das gleiche gilt für die Ableitung des Likelihood in Bezug auf die Parameter, die Score - Funktion ∂ L / ∂ & thgr; . (Um es kurz zu machen, die Fisher-Informationen bestimmen, wie schnell Die beobachtete Bewertungsfunktion konvergiert zur Form der wahren Bewertungsfunktion.)
Bei einer großen Stichprobe, gehen wir davon aus, dass unsere Maximum - Likelihood - Schätzung θ sehr nahe ist θ . Wir zoomen Sie in einer kleinen Umgebung um θ und θ , so dass die Wahrscheinlichkeit , dass die Funktion „lokal quadratisch“ ist.
oder
Aus der Konsistenz des MLE-Schätzers wissen wir das
im Limit.
Daher asymptotisch
Somit,
Eine Möglichkeit, wie ich die Fischerinformationen verstehe, ist die folgende Definition:
Wenn Sie nun eine Maximum-Likelihood-Schätzung durchführen (hier "Regularitätsbedingungen" einfügen), legen Sie fest
Eine Sache, die ich immer noch neugierig finde, ist, dass es ist, wie steil die log-Wahrscheinlichkeit ist und nicht, wie steil eine andere monotone Funktion der Wahrscheinlichkeit ist (vielleicht im Zusammenhang mit "richtigen" Bewertungsfunktionen in der Entscheidungstheorie? Oder vielleicht mit den Konsistenzaxiomen der Entropie ?).
Und wenn Sie die Log-Wahrscheinlichkeit über die MLE erweitern:
Dies ist der intuitivste Artikel, den ich bisher gesehen habe:
Die Grenze wird durch eine Analogie von Adam und Eva im Garten Eden erklärt, die eine Münze werfen, um zu sehen, wer die Frucht essen darf, und sich dann fragen, wie groß eine Probe ist, um ein bestimmtes Maß an Genauigkeit in ihrer Schätzung zu erreichen. und sie entdecken dann diese Grenze ...
Schöne Geschichte mit einer tiefen Botschaft über die Realität.
Obwohl die oben gegebenen Erklärungen sehr interessant sind und ich sie gerne durchgesehen habe, habe ich das Gefühl, dass mir die Natur der Cramer-Rao-Untergrenze aus geometrischer Sicht am besten erklärt wurde. Diese Intuition ist eine Zusammenfassung des Konzepts der Konzentrationsellipsen aus Kapitel 6 von Scharfs Buch über statistische Signalverarbeitung .
Betrachten Sie einen unvoreingenommenen Schätzer für . Nehmen Sie außerdem an, dass der Schätzer eine Gauß-Verteilung mit Kovarianz . Unter diesen Bedingungen ist die Verteilung von proportional zu:
.
Denken Sie nun an die Konturdiagramme dieser Verteilung für . Jede obere Beschränkung der Wahrscheinlichkeit von (dh ) führt zu einem Ellipsoid, das bei zentriert ist mit festem Radius . Es ist leicht zu zeigen, dass es eine Eins-zu-Eins-Beziehung zwischen dem Radius des Ellipsoids und der gewünschten Wahrscheinlichkeit . Mit anderen Worten, liegt in der Nähe von innerhalb eines Ellipsoids, das durch den Radius mit der Wahrscheinlichkeit. Dieses Ellipsoid wird als Konzentrationsellipsoid bezeichnet.
In Anbetracht der obigen Beschreibung können wir Folgendes zum CRLB sagen. Unter allen unverzerrten Schätzern repräsentiert der CRLB einen Schätzer mit einer Kovarianz , der für eine feste Wahrscheinlichkeit der "Nähe" (wie oben definiert) die kleinste hat Konzentrationsellipsoid. Die folgende Abbildung zeigt eine 2D-Darstellung (inspiriert von der Darstellung in Scharfs Buch ).ΣcRlbPr