Als ich über Suffizienz lernte, stieß ich auf Ihre Frage, weil ich auch die Intuition darüber verstehen wollte. Nach dem, was ich gesammelt habe, habe ich mir das ausgedacht (lassen Sie mich wissen, was Sie denken, wenn ich Fehler gemacht habe usw.).
Sei eine Zufallsstichprobe aus einer Poisson-Verteilung mit dem Mittelwert . θ > 0X1,…,Xnθ>0
Wir wissen , dass ist eine erschöpfende Statistik für , da die bedingte Verteilung von gegeben ist frei von , hängt also nicht von . θ X 1 , ... , X n T ( X ) θ θT(X)=∑ni=1XiθX1,…,XnT(X)θθ
Nun weiß Statistiker , dass und erstellt aus dieser Verteilung Zufallswerte:A X1,…,Xn∼i.i.dPoisson(4)n=400
n<-400
theta<-4
set.seed(1234)
x<-rpois(n,theta)
y=sum(x)
freq.x<-table(x) # We will use this latter on
rel.freq.x<-freq.x/sum(freq.x)
Für die Werte, die der Statistiker erstellt hat, nimmt er die Summe und fragt den Statistiker :AB
"Ich habe diese Beispielwerte aus einer Poisson-Verteilung entnommen. Wenn weiß, dass , was können Sie mir über diese Verteilung sagen?"x1,…,xn∑ni=1xi=y=4068
der Statistiker also nur weiß, dass (und die Tatsache, dass die Stichprobe aus einer Poisson-Verteilung stammt) , kann er nichts über aussagen ? Da wir wissen, dass dies eine ausreichende Statistik ist, wissen wir, dass die Antwort "Ja" lautet.∑ni=1xi=y=4068Bθ
Um sich ein Bild von der Bedeutung zu machen, gehen wir wie folgt vor (entnommen aus Hogg & Mckean & Craigs "Introduction to Mathematical Statistics", 7. Auflage, Aufgabe 7.1.9):
" entscheidet , einige gefälschten Beobachtungen zu schaffen, die er nennt (wie er weiß , werden sie wahrscheinlich nicht das Original gleich -Werten) wie folgt. Er stellt fest , dass die bedingte Wahrscheinlichkeit von unabhängiger Poisson Zufallsvariablen gleich , wenn istBz1,z2,…,znxZ1,Z2…,Znz1,z2,…,zn∑zi=y
θz1e−θz1!θz2e−θz2!⋯θzne−θzn!nθye−nθy!=y!z1!z2!⋯zn!(1n)z1(1n)z2⋯(1n)zn
da eine Poisson-Verteilung mit dem Mittelwert . Die letztere Verteilung ist multinomial mit unabhängigen Versuchen, von denen jeder auf eine von gegenseitig ausschließenden und erschöpfenden Arten endet , von denen jeder die gleiche Wahrscheinlichkeit . Dementsprechend führt eine solche multinomial Experiment unabhängige Versuche und erhält .“Y=∑Zinθyn1/nByz1,…,zn
Das steht in der Übung. Also machen wir genau das:
# Fake observations from multinomial experiment
prob<-rep(1/n,n)
set.seed(1234)
z<-as.numeric(t(rmultinom(y,n=c(1:n),prob)))
y.fake<-sum(z) # y and y.fake must be equal
freq.z<-table(z)
rel.freq.z<-freq.z/sum(freq.z)
Und mal sehen, wie aussieht (ich zeichne auch die reale Dichte von Poisson (4) für - alles über 13 ist praktisch Null - zum Vergleich):k = 0 , 1 , ... , 13Zk=0,1,…,13
# Verifying distributions
k<-13
plot(x=c(0:k),y=dpois(c(0:k), lambda=theta, log = FALSE),t="o",ylab="Probability",xlab="k",
xlim=c(0,k),ylim=c(0,max(c(rel.freq.x,rel.freq.z))))
lines(rel.freq.z,t="o",col="green",pch=4)
legend(8,0.2, legend=c("Real Poisson","Random Z given y"),
col = c("black","green"),pch=c(1,4))
Wir wussten also nichts über und wussten nur die ausreichende Statistik thgr; i. Wir waren in der Lage, eine "Verteilung" umzuschreiben, die einer Poisson (4) -Verteilung ähnelt (wenn zunimmt, werden die beiden Kurven ähnlicher). .Y = ∑ X i nθY=∑Xin
Nun vergleiche und :Z | yXZ|y
plot(rel.freq.x,t="o",pch=16,col="red",ylab="Relative Frequency",xlab="k",
ylim=c(0,max(c(rel.freq.x,rel.freq.z))))
lines(rel.freq.z,t="o",col="green",pch=4)
legend(7,0.2, legend=c("Random X","Random Z given y"), col = c("red","green"),pch=c(16,4))
Wir sehen, dass sie sich auch ziemlich ähnlich sind (wie erwartet)
"Um eine statistische Entscheidung zu treffen, können wir die einzelnen Zufallsvariablen ignorieren und die Entscheidung vollständig auf der Grundlage von " (Ash, R. "Statistical Inference: A concise course") treffen. , Seite 59). Y = X 1 + X 2 + ⋯ + X nXiY=X1+X2+⋯+Xn