Warum enthält eine ausreichende Statistik alle Informationen, die zur Berechnung einer Schätzung des Parameters erforderlich sind?


16

Ich habe gerade angefangen, Statistik zu studieren, und ich kann nicht intuitiv verstehen, wie ausreichend ist. Genauer gesagt kann ich nicht nachvollziehen, wie die folgenden beiden Absätze gleichwertig sind:

Grob gesagt ist eine ausreichende Statistik eine Funktion T (X), deren Wert alle Informationen enthält, die benötigt werden, um eine Schätzung des Parameters zu berechnen, wenn ein Satz X unabhängiger, identisch verteilter Daten unter Bedingungen eines unbekannten Parameters & thgr; gegeben ist.

Eine Statistik T (X) ist für den zugrunde liegenden Parameter θ gerade dann ausreichend, wenn die bedingte Wahrscheinlichkeitsverteilung der Daten X bei gegebener Statistik T (X) nicht vom Parameter θ abhängt.

(Ich habe die Anführungszeichen aus der ausreichenden Statistik übernommen. )

Obwohl ich die zweite Aussage verstehe und den Faktorisierungssatz verwenden kann, um zu zeigen, ob eine gegebene Statistik ausreicht, kann ich nicht verstehen, warum eine Statistik mit einer solchen Eigenschaft auch die Eigenschaft hat, dass sie alle Informationen enthält, die zur Berechnung einer solchen benötigt werden Schätzung des Parameters ". Ich bin nicht auf der Suche nach einem formalen Beweis, der mir trotzdem helfen würde, mein Verständnis zu verfeinern. Ich möchte eine intuitive Erklärung dafür erhalten, warum die beiden Aussagen gleichwertig sind.

Zusammenfassend lauten meine Fragen: Warum sind die beiden Aussagen gleichwertig? Könnte jemand eine intuitive Erklärung für ihre Gleichwertigkeit liefern?


1
Die wichtigste intuitive Idee ist, dass Sie manchmal nicht die gesamte Stichprobe sehen müssen, da Sie eine Statistik finden, die alle aus der Stichprobe benötigten Informationen zusammenfasst. Nehmen Sie zum Beispiel eine Binomialverteilung: Alles, was Sie für Ihr Modell wissen müssen, ist die Summe der Erfolge. Sie verlieren nichts an Wert, wenn ich Ihnen nur sage , anstatt Ihnen den gesamten Satz von Stichprobenwerten . x = { 1 , 0 , 0 , 1 , 0 , 1 , . . . }inxi=cx={1,0,0,1,0,1,...}
mugen

Ich verstehe, warum ich eine ausreichende Statistik benötige und wie ich nachweisen kann, dass die Summe der Erfolge eine ausreichende Statistik für p in einem Bernoulli-Prozess ist. Was ich nicht verstehe, ist, warum eine Statistik wie die im zweiten Absatz beschriebene alle Informationen enthält, die zur Berechnung einer Schätzung des Parameters erforderlich sind.
gcoll

3
Genau genommen ist das erste Zitat einfach falsch. Es gibt viele Schätzer, die aus dem gesamten Datensatz berechnet werden können und die nicht ausschließlich aus ausreichenden Statistiken berechnet werden können. Das ist ein Grund, warum das Zitat "grob" beginnt. Ein weiterer Grund ist, dass es keine quantitative oder strenge Definition von "Information" gibt. Da im vorhergehenden Absatz eine viel genauere (aber immer noch intuitive) Charakterisierung gegeben wurde, gibt es im richtigen Kontext
Whuber

1
Es hat Verbindung zu maximaler Wahrscheinlichkeit und es ist im Wesentlichen die Information, die in der maximalen Wahrscheinlichkeit benötigt wird
Kamster

1
Nach den Kommentaren von whuber und @Kamster habe ich mich wahrscheinlich besser verstanden. Wenn wir sagen, dass eine ausreichende Statistik alle Informationen enthält, die zum Berechnen einer Schätzung des Parameters erforderlich sind, meinen wir dann tatsächlich, dass es ausreicht, den Maximum-Likelihood-Schätzer zu berechnen (was eine Funktion aller ausreichenden Statistiken ist)? Wenn dies zutrifft, war das Problem alle mit der (Nicht-) Definition von "Information" verbunden, wie von Whuber vorgeschlagen, und meine Frage wird beantwortet.
gcoll

Antworten:


3

Nach den Kommentaren von @whuber und @Kamster habe ich mich wahrscheinlich besser verstanden. Wenn wir sagen, dass eine ausreichende Statistik alle Informationen enthält, die zum Berechnen einer Schätzung des Parameters erforderlich sind, meinen wir tatsächlich, dass es ausreicht, den Maximum-Likelihood-Schätzer (der eine Funktion aller ausreichenden Statistiken ist) zu berechnen.

Da ich meine eigene Frage beantworte und die Antwort nicht 100% sicher ist, werde ich sie erst dann als richtig markieren, wenn ich ein Feedback bekomme. Bitte fügen Sie einen Kommentar hinzu und stimmen Sie ab, wenn Sie glauben, ich liege falsch / ungenau / etc ...

(Lassen Sie mich wissen, wenn dies nicht mit der SE-Etikette vereinbar ist. Da dies meine erste Frage ist, bitte ich Sie um Gnade, wenn ich gegen eine Regel verstoße.)


1

Als ich über Suffizienz lernte, stieß ich auf Ihre Frage, weil ich auch die Intuition darüber verstehen wollte. Nach dem, was ich gesammelt habe, habe ich mir das ausgedacht (lassen Sie mich wissen, was Sie denken, wenn ich Fehler gemacht habe usw.).

Sei eine Zufallsstichprobe aus einer Poisson-Verteilung mit dem Mittelwert . θ > 0X1,,Xnθ>0

Wir wissen , dass ist eine erschöpfende Statistik für , da die bedingte Verteilung von gegeben ist frei von , hängt also nicht von . θ X 1 , ... , X n T ( X ) θ θT(X)=i=1nXiθX1,,XnT(X)θθ

Nun weiß Statistiker , dass und erstellt aus dieser Verteilung Zufallswerte:A X1,,Xni.i.dPoisson(4)n=400

n<-400
theta<-4
set.seed(1234)
x<-rpois(n,theta)
y=sum(x)

freq.x<-table(x) # We will use this latter on
rel.freq.x<-freq.x/sum(freq.x)

Für die Werte, die der Statistiker erstellt hat, nimmt er die Summe und fragt den Statistiker :AB

"Ich habe diese Beispielwerte aus einer Poisson-Verteilung entnommen. Wenn weiß, dass , was können Sie mir über diese Verteilung sagen?"x1,,xni=1nxi=y=4068

der Statistiker also nur weiß, dass (und die Tatsache, dass die Stichprobe aus einer Poisson-Verteilung stammt) , kann er nichts über aussagen ? Da wir wissen, dass dies eine ausreichende Statistik ist, wissen wir, dass die Antwort "Ja" lautet.i=1nxi=y=4068Bθ

Um sich ein Bild von der Bedeutung zu machen, gehen wir wie folgt vor (entnommen aus Hogg & Mckean & Craigs "Introduction to Mathematical Statistics", 7. Auflage, Aufgabe 7.1.9):

" entscheidet , einige gefälschten Beobachtungen zu schaffen, die er nennt (wie er weiß , werden sie wahrscheinlich nicht das Original gleich -Werten) wie folgt. Er stellt fest , dass die bedingte Wahrscheinlichkeit von unabhängiger Poisson Zufallsvariablen gleich , wenn istBz1,z2,,znxZ1,Z2,Znz1,z2,,znzi=y

θz1eθz1!θz2eθz2!θzneθzn!nθyenθy!=y!z1!z2!zn!(1n)z1(1n)z2(1n)zn

da eine Poisson-Verteilung mit dem Mittelwert . Die letztere Verteilung ist multinomial mit unabhängigen Versuchen, von denen jeder auf eine von gegenseitig ausschließenden und erschöpfenden Arten endet , von denen jeder die gleiche Wahrscheinlichkeit . Dementsprechend führt eine solche multinomial Experiment unabhängige Versuche und erhält .“Y=Zinθyn1/nByz1,,zn

Das steht in der Übung. Also machen wir genau das:

# Fake observations from multinomial experiment
prob<-rep(1/n,n)
set.seed(1234)
z<-as.numeric(t(rmultinom(y,n=c(1:n),prob)))
y.fake<-sum(z) # y and y.fake must be equal
freq.z<-table(z)
rel.freq.z<-freq.z/sum(freq.z)

Und mal sehen, wie aussieht (ich zeichne auch die reale Dichte von Poisson (4) für - alles über 13 ist praktisch Null - zum Vergleich):k = 0 , 1 , ... , 13Zk=0,1,,13

# Verifying distributions
k<-13
plot(x=c(0:k),y=dpois(c(0:k), lambda=theta, log = FALSE),t="o",ylab="Probability",xlab="k",
     xlim=c(0,k),ylim=c(0,max(c(rel.freq.x,rel.freq.z))))
lines(rel.freq.z,t="o",col="green",pch=4)
legend(8,0.2, legend=c("Real Poisson","Random Z given y"), 
       col = c("black","green"),pch=c(1,4))

Bildbeschreibung hier eingeben

Wir wussten also nichts über und wussten nur die ausreichende Statistik thgr; i. Wir waren in der Lage, eine "Verteilung" umzuschreiben, die einer Poisson (4) -Verteilung ähnelt (wenn zunimmt, werden die beiden Kurven ähnlicher). .Y = X i nθY=Xin

Nun vergleiche und :Z | yXZ|y

plot(rel.freq.x,t="o",pch=16,col="red",ylab="Relative Frequency",xlab="k",
     ylim=c(0,max(c(rel.freq.x,rel.freq.z))))
lines(rel.freq.z,t="o",col="green",pch=4)
legend(7,0.2, legend=c("Random X","Random Z given y"), col = c("red","green"),pch=c(16,4))

Bildbeschreibung hier eingeben

Wir sehen, dass sie sich auch ziemlich ähnlich sind (wie erwartet)

"Um eine statistische Entscheidung zu treffen, können wir die einzelnen Zufallsvariablen ignorieren und die Entscheidung vollständig auf der Grundlage von " (Ash, R. "Statistical Inference: A concise course") treffen. , Seite 59). Y = X 1 + X 2 + + X nXiY=X1+X2++Xn


0

Lassen Sie mich eine andere Perspektive geben, die helfen kann. Dies ist auch qualitativ, aber es gibt eine strenge Version davon, die in der Informationstheorie besonders wichtig ist - bekannt als Markov-Eigenschaft.

Am Anfang haben wir zwei Objekte, Daten (aus einer Zufallsvariablen, nennen wir es X) und Parameter, (ein anderes rv, das implizit angenommen wird, da es sich um seinen Schätzer handelt). Man geht davon aus, dass diese beiden voneinander abhängig sind (andernfalls macht es keinen Sinn, zu versuchen, sie voneinander abzuschätzen). Nun betritt das dritte Objekt das Spiel, ausreichend Statistik, T. Die intuitive Idee, wenn wir sagen, dass T ausreicht, um zu schätzen, bedeutet, dass X, wenn wir T kennen (dh auf T konditioniert), keine zusätzlichen Informationen liefert, das heißt, X und sind unabhängig. Mit anderen Worten, die Kenntnis von X entspricht der Kenntnis von T bis zur Schätzung vonθ θ θθθθθist besorgt. Beachten Sie, dass in Wahrscheinlichkeiten alle Unsicherheiten erfasst werden und daher "jede Schätzung", wenn (bedingte) Wahrscheinlichkeiten unabhängig sind (z. B. bedingte Dichten faktorisieren).

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.