Frage
Die Varianz einer negativen Binomialverteilung (NB) ist immer größer als ihr Mittelwert. Wenn der Mittelwert einer Stichprobe größer als ihre Varianz ist, schlägt der Versuch fehl, die Parameter einer NB mit maximaler Wahrscheinlichkeit oder mit Momentschätzung anzupassen (es gibt keine Lösung mit endlichen Parametern).
Es ist jedoch möglich, dass eine Stichprobe aus einer NB-Verteilung einen Mittelwert hat, der größer als die Varianz ist. Hier ist ein reproduzierbares Beispiel in R.
set.seed(167)
x = rnbinom(100, size=3.2, prob=.8);
mean(x) # 0.82
var(x) # 0.8157576
Es besteht eine Wahrscheinlichkeit ungleich Null, dass der NB eine Stichprobe erstellt, für die keine Parameter geschätzt werden können (nach Maximum-Likelihood- und Moment-Methoden).
- Können für diese Stichprobe angemessene Schätzungen abgegeben werden?
- Was sagt die Schätzungstheorie, wenn nicht für alle Stichproben Schätzer definiert sind?
Über die Antwort
Die Antworten von @MarkRobinson und @Yves haben mir klar gemacht, dass Parametrisierung das Hauptproblem ist. Die Wahrscheinlichkeitsdichte des NB wird normalerweise als geschrieben
P(X=k)=Γ(r+k)
Bei der ersten Parametrisierung ist die maximale Wahrscheinlichkeitsschätzung immer dann wenn die Varianz der Stichprobe kleiner als der Mittelwert ist, so dass über nichts Sinnvolles gesagt werden kann . Im zweiten Fall ist es , sodass wir eine vernünftige Schätzung von . Schließlich zeigt @MarkRobinson, dass wir das Problem der unendlichen Werte lösen können, indem wir anstelle von .
Zusammenfassend lässt sich sagen, dass dieses Schätzungsproblem nicht grundsätzlich falsch ist, außer dass Sie nicht immer für jede Stichprobe eine aussagekräftige Interpretation von und angeben können. Um fair zu sein, sind die Ideen in beiden Antworten vorhanden. Ich habe das von @MarkRobinson als das richtige für die Ergänzungen gewählt, die er gibt.