Maximum Likelihood Estimator für negative Binomialverteilung


11

Die Frage ist folgende:

Eine Zufallsstichprobe von n Werten wird aus einer negativen Binomialverteilung mit dem Parameter k = 3 gesammelt.

  1. Finden Sie den Maximum-Likelihood-Schätzer des Parameters π.
  2. Finden Sie eine asymptotische Formel für den Standardfehler dieses Schätzers.
  3. Erklären Sie, warum die negative Binomialverteilung ungefähr normal ist, wenn der Parameter k groß genug ist. Was sind die Parameter dieser normalen Näherung?

Meine Arbeit war wie folgt:
1. Ich habe das Gefühl, dass dies erwünscht ist, bin mir aber nicht sicher, ob ich hier korrekt bin oder ob ich dies angesichts der bereitgestellten Informationen möglicherweise weiterführen kann?

p(x)=(x1k1)πk(1π)xkL(π)=Πinp(xn|π)(π)=Σinln(p(xn|π))(π)=Σinkπ(xk)(1π)
  1. Ich denke, das Folgende ist gefragt. Für den letzten Teil habe ich das Gefühl, dass ich π^ durch \ dfrac {k} {x} \ ell`` (\ hat {\ pi}) = - \ dfrac {k} {\ hat {\ ersetzen muss kx

    (π^)=kπ^2+x(1π^)2se(π^)=1(π^)se(π^)=π^2k(1π^)2x
  2. Ich bin mir nicht sicher, wie ich das beweisen soll und erforsche es noch. Alle Hinweise oder nützliche Links wäre sehr dankbar. Ich denke, es hängt entweder damit zusammen, dass eine negative Binomialverteilung als Sammlung geometrischer Verteilungen oder als Umkehrung einer Binomialverteilung angesehen werden kann, aber nicht sicher ist, wie man sich ihr nähert.

Jede Hilfe wäre sehr dankbar


(1) Um die Maximum-Likelihood-Schätzung zu finden, müssen Sie herausfinden, wo die Log-Likelihood-Funktion ihr Maximum erreicht. Die Berechnung der Punktzahl (die erste Ableitung der Log-Likelihood-Funktion in Bezug auf ) ist ein Anfang - welchen Wert wird dies maximal annehmen? (Und denken Sie daran, dass Sie nicht schätzen müssen .)π^πk
Scortchi - Reinstate Monica

Ich habe vergessen, die Ableitung der log-Wahrscheinlichkeit = 0 hinzuzufügen, um das Maximum herauszufinden. Wenn ich das richtig herausgefunden habe (seit dem Posten noch daran gearbeitet habe), habe ichkπΣi=0n(xik)(1π)=0
Syzorr

Pass auf dich auf:Beachten Sie auch, dass um 1.i=1nkπi=1n(xik)(1π)= ?i
Scortchi

In (2) ist es selten der Fall, dass der Kehrwert einer Differenz die Differenz der Kehrwerte ist. Dieser Fehler wirkt sich enorm auf Ihre endgültige Formel für . se(π^)
whuber

Antworten:


6

1.

p(x)=(xi1k1)πk(1π)xik

L(π;xi)=i=1n(xi1k1)πk(1π)xik

(π;xi)=i=1n[log(xi1k1)+klog(π)+(xik)log(1π)]d(π;xi)dπ=i=1n[kπ(xik)(1π)]

Setzen Sie dies auf Null,

nkπ=i=1nxink1π

π^=nki=1nx

    2.

Für den zweiten Teil müssen Sie den Satz verwenden, dass , ist die Fischerinformation hier. Daher wird die Standardabweichung der werden . Oder Sie nennen es als Standardfehler, da Sie hier CLT verwenden.n(θ^θ)DN(0,1I(θ))I(θ)θ^[nI(θ)]1/2

Wir müssen also die Fisher-Informationen für die negative Binomialverteilung berechnen.

2log(P(x;π))π2=kπ2xk(1π)2

I(θ)=E(kπ2xk(1π)2)=kπ2+k(1π)(1π)2π

Anmerkung: für das negative Binom pmfE(x)=kπ

Daher ist der Standardfehler für istπ^[n(kπ2+k(1π)(1π)2π)]1/2

Vereinfachen Sie, wir erhaltense(π)=π2(π1)kn

    3.

Die geometrische Verteilung ist ein Sonderfall der negativen Binomialverteilung, wenn k = 1. Hinweis ist eine geometrische Verteilungπ(1π)x1

Daher kann eine negative Binomialvariable als Summe von k unabhängigen, identisch verteilten (geometrischen) Zufallsvariablen geschrieben werden.

Nach CLT ist die negative Binomialverteilung also ungefähr normal, wenn der Parameter k groß genug ist


1
Bitte lesen Sie Welche Themen kann ich hier fragen? zu Fragen des Selbststudiums: Anstatt die Hausaufgaben der Menschen für sie zu machen, versuchen wir ihnen zu helfen, dies selbst zu tun.
Scortchi - Monica wieder einsetzen

2
Sie tun müssen , die Stichprobengröße betrachten bei der Berechnung der MLE. Sie können einen Bericht über unabhängige Beobachtungen verwirren , jede der Nr. von Versuchen, die erforderlich sind, um Fehler ( ) zu erreichen, mit einer Darstellung einer einzelnen Beobachtung der Nr. Anzahl der Versuche, die erforderlich sind, um Fehler zu erreichen ( ). Ersteres ergibt eine Wahrscheinlichkeit von ; Letzteres ist . nnkx1,x2,,xnkni=1nπ(1π)xikπk(1π)nk
Scortchi - Monica wieder einsetzen

1
Sie haben Recht, ich bin in diesem Punkt immer verwirrend. Vielen Dank. Ich stelle auch viele Fragen in diesem Forum, aber ich hoffe wirklich, dass die Leute mir eine sehr detaillierte Antwort geben können, dann kann ich sie Schritt für Schritt selbst studieren.
Deep North

Ja. Ich verstehe, warum die Regel gegen zu viele Details, aber diese Antwort in Kombination mit meinen eigenen Notizen aus der Vorlesung es mir ermöglicht hat, viele der losen Enden zusammenzubinden. Ich habe vor, heute mit meinem Dozenten darüber zu sprechen, damit ich von ihm Klarheit bekommen kann. Es ist jetzt Freitag hier. Abtretung fällig am Montag wie oben angegeben. Wir haben dies am Mittwoch gelernt und haben nur ein einziges Beispiel mit einer Binomialverteilung. Vielen Dank für das Detail.
Syzorr

Es gibt einige Fehler in Ihrer Arbeit dort, weil ich (θ) = E [] nicht -E [] (was mich verwirrt hat, bis ich nach den Gleichungen gesucht habe, die Sie verwendet haben). Schließlich habe ichse(π)=π2(π1)kn
Syzorr
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.