eine Methode zum Schätzen von Parametern eines statistischen Modells durch Auswahl des Parameterwerts, der die Wahrscheinlichkeit der Beobachtung der gegebenen Stichprobe optimiert.
Es gibt eine ganze Reihe von Methoden zur Parameterschätzung. MLE, UMVUE, MoM, Entscheidungstheorie und andere scheinen alle einen ziemlich logischen Grund dafür zu haben, warum sie für die Parameterschätzung nützlich sind. Ist eine Methode besser als die andere, oder handelt es sich nur darum, wie wir den Schätzer für die …
Kann mir bitte jemand sagen, wie die Regelmäßigkeitsbedingungen für die asymptotische Verteilung des Likelihood Ratio-Tests sind? Überall, wo ich hinschaue, steht geschrieben "Unter den Regelmäßigkeitsbedingungen" oder "Unter den probabilistischen Regelmäßigkeiten". Was genau sind die Bedingungen? Dass die erste und die zweite Log-Likelihood-Ableitung existieren und die Informationsmatrix nicht Null ist? Oder …
Im Bayes'schen Theorem ist p(y|x)=p(x|y)p(y)p(x)p(y|x)=p(x|y)p(y)p(x)p(y|x) = \frac{p(x|y)p(y)}{p(x)} , und aus dem Buch, das ich lese, heißtp(x|y)p(x|y)p(x|y)dieWahrscheinlichkeit, aber ich nehme an, es ist nur diebedingte Wahrscheinlichkeitvonxxxbeiyyy, oder? Die Maximum-Likelihood-Schätzung versucht, zu maximieren p(x|y)p(x|y)p(x|y), oder? Wenn ja, bin ich sehr verwirrt, weil x,yx,yx,y beide Zufallsvariablen sind, oder? Zur Maximierung der p(x|y)p(x|y)p(x|y) ist, …
Ich verstehe, dass bei einer Reihe von unabhängigen Beobachtungen der Maximum Likelihood Estimator (oder äquivalent der MAP mit flachem / einheitlichem Prior), der die Parameter \ mathbf {θ} identifiziert , die die Modellverteilung p_ {model} \ erzeugen links (\, \ cdot \ ,; \ mathbf {θ} \ rechts) , die …
Ich lese PRML und verstehe das Bild nicht. Könnten Sie bitte einige Hinweise geben, um das Bild zu verstehen und warum die MLE der Varianz in einer Gaußschen Verteilung voreingenommen ist? Formel 1,55: Formel 1,56 σ 2 M L E =1μM.L E.= 1N.∑n = 1N.xnμMLE=1N∑n=1Nxn \mu_{MLE}=\frac{1}{N} \sum_{n=1}^N x_n σ2M.L E.= …
Ist es möglich, das übliche MLE-Verfahren auf die Dreiecksverteilung anzuwenden? - Ich versuche es, aber ich scheine bei dem einen oder anderen Schritt in der Mathematik durch die Art und Weise, wie die Verteilung definiert ist, blockiert zu sein. Ich versuche die Tatsache zu nutzen, dass ich die Anzahl der …
Während ich die Maximum-Likelihood-Schätzung studiere, müssen wir die Varianz kennen, um Rückschlüsse auf die Maximum-Likelihood-Schätzung zu ziehen. Um die Varianz herauszufinden, muss ich die untere Grenze des Cramer-Rao kennen, die wie eine hessische Matrix mit zweiter Ableitung auf der Krümmung aussieht. Ich bin irgendwie durcheinander, um die Beziehung zwischen Kovarianzmatrix …
Ich habe eine Wahrscheinlichkeitsfunktion für die Wahrscheinlichkeit meiner Daten bei einigen Modellparametern , die ich schätzen möchte. Unter der Annahme flacher Prioritäten für die Parameter ist die Wahrscheinlichkeit proportional zur posterioren Wahrscheinlichkeit. Ich benutze eine MCMC-Methode, um diese Wahrscheinlichkeit abzutasten.L(d|θ)L(d|θ)\mathcal{L}(d | \theta)dddθ∈RNθ∈RN\theta \in \mathbf{R}^N Wenn ich mir die resultierende konvergierte …
Vor kurzem bin ich auf "wahrscheinlichkeitsfreie" Methoden aufmerksam geworden, über die in der Literatur geredet wird. Mir ist jedoch nicht klar, was es bedeutet, dass eine Inferenz- oder Optimierungsmethode wahrscheinlichkeitsfrei ist . Beim maschinellen Lernen besteht das Ziel normalerweise darin, die Wahrscheinlichkeit zu maximieren, dass einige Parameter zu einer Funktion …
Titel sagt alles. Ich verstehe, dass die kleinsten Quadrate und die maximale Wahrscheinlichkeit das gleiche Ergebnis für Regressionskoeffizienten liefern, wenn die Fehler des Modells normal verteilt sind. Aber was passiert, wenn die Fehler nicht normal verteilt sind? Warum sind die beiden Methoden nicht mehr gleichwertig?
Ich lese Doug Bates ' Theoriepapier über Rs lme4-Paket, um das Wesentliche gemischter Modelle besser zu verstehen, und bin auf ein faszinierendes Ergebnis gestoßen, das ich besser verstehen möchte, wenn es darum geht, die Varianz mithilfe der eingeschränkten maximalen Wahrscheinlichkeit (REML) zu schätzen . In Abschnitt 3.3 zum REML-Kriterium stellt …
Ich las das Buch Das Identifikationsproblem in der Ökonometrie von Franklin M. Fisher und war verwirrt über den Teil, in dem er die Identifikation durch Visualisierung der Wahrscheinlichkeitsfunktion demonstriert. Das Problem könnte vereinfacht werden als: Für eine Regression ist , wobei u ∼ i ist . ich . d . …
Ich wollte den genauen Test des Fischers besser verstehen, deshalb habe ich das folgende Spielzeugbeispiel entwickelt, bei dem f und m männlich und weiblich und n und y dem "Sodakonsum" wie folgt entsprechen: > soda_gender f m n 0 5 y 5 0 Dies ist natürlich eine drastische Vereinfachung, aber …
Gibt es eine bekannte Bayes'sche, ML- oder MDL-Interpretation der Kreuzvalidierung? Kann ich die Kreuzvalidierung so interpretieren, dass das richtige Update für einen speziell erstellten Prior durchgeführt wird?
Gibt es eine Faustregel oder überhaupt eine Möglichkeit zu bestimmen, wie groß eine Stichprobe sein sollte, um ein Modell mit einer bestimmten Anzahl von Parametern zu schätzen? Wenn ich beispielsweise eine Regression der kleinsten Quadrate mit 5 Parametern schätzen möchte, wie groß sollte die Stichprobe sein? Ist es wichtig, welche …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.