Als «maximum-likelihood» getaggte Fragen

eine Methode zum Schätzen von Parametern eines statistischen Modells durch Auswahl des Parameterwerts, der die Wahrscheinlichkeit der Beobachtung der gegebenen Stichprobe optimiert.

1
Wann kann die häufig auftretende Stichprobenverteilung in Regressionseinstellungen nicht als Bayesian posterior interpretiert werden?
Meine eigentlichen Fragen sind in den letzten beiden Absätzen, aber um sie zu motivieren: Wenn ich versuche, den Mittelwert einer Zufallsvariablen zu schätzen, die einer Normalverteilung mit einer bekannten Varianz folgt, habe ich gelesen, dass das Setzen einer Uniform vor dem Mittelwert zu einer posterioren Verteilung führt, die proportional zur …




2
Unvoreingenommener Schätzer für das AR ( ) -Modell
Betrachten Sie ein AR ( ) -Modell (der Einfachheit halber wird ein Mittelwert von Null angenommen):ppp xt=φ1xt−1+…+φpxt−p+εtxt=φ1xt−1+…+φpxt−p+εt x_t = \varphi_1 x_{t-1} + \dotsc + \varphi_p x_{t-p} + \varepsilon_t Es ist bekannt, dass der OLS-Schätzer (äquivalent zum Schätzer für bedingte maximale Wahrscheinlichkeit) für voreingenommen ist, wie in einem aktuellen Thread erwähnt …

1
Maximum Likelihood Estimator für negative Binomialverteilung
Die Frage ist folgende: Eine Zufallsstichprobe von n Werten wird aus einer negativen Binomialverteilung mit dem Parameter k = 3 gesammelt. Finden Sie den Maximum-Likelihood-Schätzer des Parameters π. Finden Sie eine asymptotische Formel für den Standardfehler dieses Schätzers. Erklären Sie, warum die negative Binomialverteilung ungefähr normal ist, wenn der Parameter …

4
Maximum-Likelihood-Funktion für die Verteilung gemischter Typen
Im Allgemeinen maximieren wir eine Funktion L(θ;x1,…,xn)=∏i=1nf(xi∣θ)L(θ;x1,…,xn)=∏i=1nf(xi∣θ) L(\theta; x_1, \ldots, x_n) = \prod_{i=1}^n f(x_i \mid \theta) Dabei ist die Wahrscheinlichkeitsdichtefunktion, wenn die zugrunde liegende Verteilung kontinuierlich ist, und eine Wahrscheinlichkeitsmassenfunktion (mit Summation anstelle des Produkts), wenn die Verteilung diskret ist.fff Wie spezifizieren wir die Wahrscheinlichkeitsfunktion, wenn die zugrunde liegende Verteilung …

3
Warum schätzen wir den Mittelwert mithilfe von MLE, wenn wir bereits wissen, dass der Mittelwert der Durchschnitt der Daten ist?
Ich bin auf ein Problem im Lehrbuch gestoßen, um den Mittelwert abzuschätzen. Das Lehrbuchproblem ist wie folgt: Es sei angenommen, dass N.N.N Datenpunkte x1x1x_1 , x2x2x_2 ,. . . , xN.xN.x_N , wurden durch ein eindimensionales Gaußsches PDF mit unbekanntem Mittelwert, aber bekannter Varianz erzeugt. Leiten Sie die ML-Schätzung des …

2
Invarianzeigenschaft von MLE: Was ist die MLE von
Invarianzeigenschaft von MLE: if die MLE ist von , dann für eine beliebige Funktion , die MLE von ist . θf(θ)f(θ)f( θ )θ^θ^\hat{\theta}θθ\thetaf( θ )f(θ)f(\theta)f( θ )f(θ)f(\theta)f( θ^)f(θ^)f(\hat{\theta}) Außerdem muss eine Eins-zu-Eins-Funktion sein.fff Das Buch sagt: "Um beispielsweise , das Quadrat eines normalen Mittelwerts , zu schätzen , ist die …

1
Ist MLE von asymptotisch normal, wenn ?
Angenommen, hat das PDF(X,Y)(X,Y)(X,Y) fθ(x,y)=e−(x/θ+θy)1x>0,y>0,θ>0fθ(x,y)=e−(x/θ+θy)1x>0,y>0,θ>0f_{\theta}(x,y)=e^{-(x/\theta+\theta y)}\mathbf1_{x>0,y>0}\quad,\,\theta>0 Die Dichte der Stichprobe die aus dieser Population gezogen wird, ist daher(X,Y)=(Xi,Yi)1≤i≤n(X,Y)=(Xi,Yi)1≤i≤n(\mathbf X,\mathbf Y)=(X_i,Y_i)_{1\le i\le n} gθ(x,y)=∏i=1nfθ(xi,yi)=exp[−∑i=1n(xiθ+θyi)]1x1,…,xn,y1,…,yn>0=exp[−nx¯θ−θny¯]1x(1),y(1)>0,θ>0gθ(x,y)=∏i=1nfθ(xi,yi)=exp⁡[−∑i=1n(xiθ+θyi)]1x1,…,xn,y1,…,yn>0=exp⁡[−nx¯θ−θny¯]1x(1),y(1)>0,θ>0\begin{align} g_{\theta}(\mathbf x,\mathbf y)&=\prod_{i=1}^n f_{\theta}(x_i,y_i) \\&=\exp\left[{-\sum_{i=1}^n\left(\frac{x_i}{\theta}+\theta y_i\right)}\right]\mathbf1_{x_1,\ldots,x_n,y_1,\ldots,y_n>0} \\&=\exp\left[-\frac{n\bar x}{\theta}-\theta n\bar y\right]\mathbf1_{x_{(1)},y_{(1)}>0}\quad,\,\theta>0 \end{align} Der Maximum-Likelihood-Schätzer von θθ\theta kann abgeleitet werden als θ^(X,Y)=X¯¯¯¯Y¯¯¯¯−−−√θ^(X,Y)=X¯Y¯\hat\theta(\mathbf X,\mathbf Y)=\sqrt\frac{\overline X}{\overline Y} Ich möchte wissen, …


1
Finden Sie die einzigartige MVUE
Diese Frage stammt aus Robert Hoggs Einführung in die mathematische Statistik, 6. Version, Problem 7.4.9, auf Seite 388. Sei iid mit pdf f (x; \ Theta) = 1/3 \ Theta, - \ Theta <x <2 \ Theta, an anderer Stelle Null, wobei \ Theta> 0 ist .X1,...,XnX1,...,XnX_1,...,X_nf(x;θ)=1/3θ,−θ<x<2θ,f(x;θ)=1/3θ,−θ<x<2θ,f(x;\theta)=1/3\theta,-\theta0 (a) Finden Sie …

1
Ableiten der Wahrscheinlichkeitsfunktion für IV-Probit
Ich habe also ein binäres Modell, bei dem die latente unbeobachtete Variable und die beobachtete ist. bestimmt und ist somit mein Instrument. Kurz gesagt, das Modell ist. Da die Fehlerterme nicht unabhängig sind, aber Ich verwende ein IV-Probit-Modell.y∗1y1∗y_1^*y1∈{0,1}y1∈{0,1}y_1 \in \{0,1\}y2y2y_2y1y1y_1z2z2z_2y∗1y2y1===δ1z1+α1y2+u1δ21z1+δ22z2+v2=zδ+v21[y∗>0]y1∗=δ1z1+α1y2+u1y2=δ21z1+δ22z2+v2=zδ+v2y1=1[y∗>0]\begin{eqnarray} y_1^*&=& \delta_1 z_1 + \alpha_1 y_2 + u_1 \\ y_2 …


2
Was ist die maximale Wahrscheinlichkeitsschätzung der Kovarianz bivariater Normaldaten, wenn Mittelwert und Varianz bekannt sind?
Angenommen, wir haben eine Zufallsstichprobe aus einer bivariaten Normalverteilung, die Nullen als Mittelwerte und Einsen als Varianzen enthält. Der einzige unbekannte Parameter ist also die Kovarianz. Was ist die MLE der Kovarianz? Ich weiß, es sollte so etwas wie aber woher wissen wir das?1n∑nj=1xjyj1n∑j=1nxjyj\frac{1}{n} \sum_{j=1}^{n}x_j y_j

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.