eine Methode zum Schätzen von Parametern eines statistischen Modells durch Auswahl des Parameterwerts, der die Wahrscheinlichkeit der Beobachtung der gegebenen Stichprobe optimiert.
Diese Frage über die Kreuzvalidierung, bei der es um die Simulation einer Stichprobe unter der Bedingung einer festen Summe ging, erinnerte mich an ein Problem, das George Casella mir gestellt hatte . Ausgehend von einem parametrischen Modell und einem iid-Beispiel aus diesem Modell ist die MLE von durch Gibt es …
Können Sie ein Beispiel für einen MLE-Schätzer für den voreingenommenen Mittelwert angeben? Ich bin nicht auf der Suche nach einem Beispiel, das MLE-Schätzer im Allgemeinen durch Verstöße gegen die Regularitätsbedingungen bricht. Alle Beispiele, die ich im Internet sehe, beziehen sich auf die Varianz, und ich kann anscheinend nichts finden, was …
Frage Die Varianz einer negativen Binomialverteilung (NB) ist immer größer als ihr Mittelwert. Wenn der Mittelwert einer Stichprobe größer als ihre Varianz ist, schlägt der Versuch fehl, die Parameter einer NB mit maximaler Wahrscheinlichkeit oder mit Momentschätzung anzupassen (es gibt keine Lösung mit endlichen Parametern). Es ist jedoch möglich, dass …
Dies ist zum Teil durch die folgende Frage und die darauf folgende Diskussion motiviert . Angenommen, die iid-Probe wird beobachtet, . Das Ziel ist es, zu schätzen . Aber original probe ist nicht verfügbar. Was wir stattdessen haben, sind einige Statistiken der Stichprobe . Angenommen, ist fest. Wie schätzen wir …
Wir arbeiten mit einigen logistischen Regressionen und haben festgestellt, dass die durchschnittliche geschätzte Wahrscheinlichkeit immer dem Anteil derjenigen in der Stichprobe entspricht. Das heißt, der Durchschnitt der angepassten Werte entspricht dem Durchschnitt der Stichprobe. Kann mir jemand den Grund erklären oder eine Referenz geben, wo ich diese Demonstration finden kann?
Frage (n): Welche Idee und Intuition steckt hinter der Quasi-Maximum-Likelihood-Schätzung (QMLE; auch als Pseudo-Maximum-Likelihood-Schätzung (PMLE) bezeichnet)? Was bewirkt, dass der Schätzer funktioniert, wenn die tatsächliche Fehlerverteilung nicht mit der angenommenen Fehlerverteilung übereinstimmt? Die Wikipedia-Seite für QMLE ist in Ordnung (kurz, intuitiv, auf den Punkt gebracht), aber ich könnte etwas mehr …
In der Standard - Maximalwahrscheinlichkeitseinstellung (iid Stichprobe aus einer Verteilung mit der Dichte f y ( y | θ 0Y1,…,YnY1,…,YnY_{1}, \ldots, Y_{n}fy(y|θ0fy(y|θ0f_{y}(y|\theta_{0} )) und im Fall eines korrekt spezifizierten Modells wird die Fisher-Information durch gegeben I(θ)=−Eθ0[∂2θ2lnfy(θ)]I(θ)=−Eθ0[∂2θ2lnfy(θ)]I(\theta) = -\mathbb{E}_{\theta_{0}}\left[\frac{\partial^{2}}{\theta^{2}}\ln f_{y}(\theta) \right] wobei die Erwartung in Bezug auf die wahre Dichte genommen …
Wie passe ich die Parameter einer t-Verteilung an, dh die Parameter, die dem Mittelwert und der Standardabweichung einer Normalverteilung entsprechen? Ich nehme an, sie heißen 'Mittelwert' und 'Skalierung / Freiheitsgrade' für eine t-Verteilung. Der folgende Code führt häufig zu Fehlern bei der Optimierung. library(MASS) fitdistr(x, "t") Muss ich x zuerst …
Ich versuche, mit optimden Ergebnissen einer einfachen linearen Regression mit zu reproduzierenglm oder sogar nlsR-Funktionen ausgestattet ist. Die Parameterschätzungen sind die gleichen, aber die Restvarianzschätzung und die Standardfehler der anderen Parameter sind nicht die gleichen, insbesondere wenn die Stichprobengröße niedrig ist. Ich nehme an, dass dies auf Unterschiede in der …
Ich versuche zu beweisen, dass die beobachtete Informationsmatrix, die beim schwach konsistenten Maximum Likelihood Estimator (MLE) ausgewertet wird, ein schwach konsistenter Schätzer der erwarteten Informationsmatrix ist. Dies ist ein viel zitiertes Ergebnis, aber niemand gibt einen Hinweis oder einen Beweis (ich denke, die ersten 20 Seiten der Google-Ergebnisse und meine …
Das Schätzen von Parametern unter Verwendung der Maximum-Likelihood-Schätzung (MLE) umfasst das Bewerten der Likelihood-Funktion, die die Wahrscheinlichkeit des Auftretens der Stichprobe (X) auf Werte (x) im Parameterraum (θ) bei gegebener Verteilungsfamilie (P (X = x | θ) abbildet Alle Beispiele, die ich gesehen habe, beinhalten die Berechnung von P (X …
Der univariate exponentielle Hawkes-Prozess ist ein aufregender Punktprozess mit einer Ereignisankunftsrate von: λ ( t ) = μ + ∑tich< tα e- β( t - tich)λ(t)=μ+∑ti<tαe−β(t−ti) \lambda(t) = \mu + \sum\limits_{t_i<t}{\alpha e^{-\beta(t-t_i)}} Dabei sind die Ereignisankunftszeiten.t1, . . tnt1,..tn t_1,..t_n Die Log Likelihood Funktion ist - tnμ + αβ∑ ( …
Ich bin verwirrt über die Maximum-Likelihood-Methode im Vergleich zB zur Berechnung des arithmetischen Mittels. Wann und warum liefert die maximale Wahrscheinlichkeit "bessere" Schätzungen als z. B. das arithmetische Mittel? Wie ist das überprüfbar?
Allgemeine Frage Nehmen wir an, wir haben iid-Daten x1x1x_1 , x2x2x_2 , ... einströmen. Wir möchten die maximale Wahrscheinlichkeitsschätzung von \ boldsymbol {\ theta} rekursiv berechnen. . Das heißt, nachdem \ hat {\ boldsymbol {\ theta}} _ {n-1} = \ underset {\ boldsymbol {\ theta} \ in \ mathbb {R} …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.