Als «maximum-likelihood» getaggte Fragen

eine Methode zum Schätzen von Parametern eines statistischen Modells durch Auswahl des Parameterwerts, der die Wahrscheinlichkeit der Beobachtung der gegebenen Stichprobe optimiert.



2
Ein unmögliches Schätzproblem?
Frage Die Varianz einer negativen Binomialverteilung (NB) ist immer größer als ihr Mittelwert. Wenn der Mittelwert einer Stichprobe größer als ihre Varianz ist, schlägt der Versuch fehl, die Parameter einer NB mit maximaler Wahrscheinlichkeit oder mit Momentschätzung anzupassen (es gibt keine Lösung mit endlichen Parametern). Es ist jedoch möglich, dass …


1
Eigenschaften logistischer Regressionen
Wir arbeiten mit einigen logistischen Regressionen und haben festgestellt, dass die durchschnittliche geschätzte Wahrscheinlichkeit immer dem Anteil derjenigen in der Stichprobe entspricht. Das heißt, der Durchschnitt der angepassten Werte entspricht dem Durchschnitt der Stichprobe. Kann mir jemand den Grund erklären oder eine Referenz geben, wo ich diese Demonstration finden kann?

3
Idee und Intuition hinter Quasi Maximum Likelihood Estimation (QMLE)
Frage (n): Welche Idee und Intuition steckt hinter der Quasi-Maximum-Likelihood-Schätzung (QMLE; auch als Pseudo-Maximum-Likelihood-Schätzung (PMLE) bezeichnet)? Was bewirkt, dass der Schätzer funktioniert, wenn die tatsächliche Fehlerverteilung nicht mit der angenommenen Fehlerverteilung übereinstimmt? Die Wikipedia-Seite für QMLE ist in Ordnung (kurz, intuitiv, auf den Punkt gebracht), aber ich könnte etwas mehr …

2
Warum genau werden die beobachteten Fisher-Informationen verwendet?
In der Standard - Maximalwahrscheinlichkeitseinstellung (iid Stichprobe aus einer Verteilung mit der Dichte f y ( y | θ 0Y1,…,YnY1,…,YnY_{1}, \ldots, Y_{n}fy(y|θ0fy(y|θ0f_{y}(y|\theta_{0} )) und im Fall eines korrekt spezifizierten Modells wird die Fisher-Information durch gegeben I(θ)=−Eθ0[∂2θ2lnfy(θ)]I(θ)=−Eθ0[∂2θ2ln⁡fy(θ)]I(\theta) = -\mathbb{E}_{\theta_{0}}\left[\frac{\partial^{2}}{\theta^{2}}\ln f_{y}(\theta) \right] wobei die Erwartung in Bezug auf die wahre Dichte genommen …


2
Reststandardfehlerdifferenz zwischen optim und glm
Ich versuche, mit optimden Ergebnissen einer einfachen linearen Regression mit zu reproduzierenglm oder sogar nlsR-Funktionen ausgestattet ist. Die Parameterschätzungen sind die gleichen, aber die Restvarianzschätzung und die Standardfehler der anderen Parameter sind nicht die gleichen, insbesondere wenn die Stichprobengröße niedrig ist. Ich nehme an, dass dies auf Unterschiede in der …

2
Beobachtete Informationsmatrix ist ein konsistenter Schätzer der erwarteten Informationsmatrix?
Ich versuche zu beweisen, dass die beobachtete Informationsmatrix, die beim schwach konsistenten Maximum Likelihood Estimator (MLE) ausgewertet wird, ein schwach konsistenter Schätzer der erwarteten Informationsmatrix ist. Dies ist ein viel zitiertes Ergebnis, aber niemand gibt einen Hinweis oder einen Beweis (ich denke, die ersten 20 Seiten der Google-Ergebnisse und meine …

3
Benötigt MLE ID-Daten? Oder nur unabhängige Parameter?
Das Schätzen von Parametern unter Verwendung der Maximum-Likelihood-Schätzung (MLE) umfasst das Bewerten der Likelihood-Funktion, die die Wahrscheinlichkeit des Auftretens der Stichprobe (X) auf Werte (x) im Parameterraum (θ) bei gegebener Verteilungsfamilie (P (X = x | θ) abbildet Alle Beispiele, die ich gesehen habe, beinhalten die Berechnung von P (X …

3
Finden der MLE für einen univariaten exponentiellen Hawkes-Prozess
Der univariate exponentielle Hawkes-Prozess ist ein aufregender Punktprozess mit einer Ereignisankunftsrate von: λ ( t ) = μ + ∑tich&lt; tα e- β( t - tich)λ(t)=μ+∑ti&lt;tαe−β(t−ti) \lambda(t) = \mu + \sum\limits_{t_i<t}{\alpha e^{-\beta(t-t_i)}} Dabei sind die Ereignisankunftszeiten.t1, . . tnt1,..tn t_1,..t_n Die Log Likelihood Funktion ist - tnμ + αβ∑ ( …




Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.