eine Methode zum Schätzen von Parametern eines statistischen Modells durch Auswahl des Parameterwerts, der die Wahrscheinlichkeit der Beobachtung der gegebenen Stichprobe optimiert.
Ich verstehe, dass ich, wenn ich zwei Modelle A und B habe und A in B verschachtelt ist, anhand einiger Daten die Parameter von A und B mithilfe von MLE anpassen und den verallgemeinerten Log-Likelihood-Ratio-Test anwenden kann. Insbesondere sollte die Verteilung des Tests mit Freiheitsgraden sein, wobei die Differenz in …
Ich interessiere mich für eine gute Referenz für Ergebnisse bezüglich asymptotischer Eigenschaften von Maximum-Likelihood-Schätzern. Betrachten wir ein Modell wobei f n ( x | θ ) ist eine n -dimensionale Dichte und θ n ist die MLE basierend auf einer Probe X 1 , ... , X n von f …
Ich arbeite an einem Datensatz. Nachdem ich einige Modellidentifikationstechniken angewendet hatte, kam ich mit einem ARIMA (0,2,1) -Modell heraus. Ich habe die detectIOFunktion im Paket TSAin R verwendet, um bei der 48. Beobachtung meines ursprünglichen Datensatzes einen innovativen Ausreißer (IO) zu erkennen . Wie kann ich diesen Ausreißer in mein …
Ich habe ein GLMM der Form: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Wenn ich benutze drop1(model, test="Chi"), erhalte ich andere Ergebnisse als wenn ich Anova(model, type="III")aus dem Autopaket oder benutze summary(model). Diese beiden letzteren geben die gleichen Antworten. Unter Verwendung einer Reihe …
Das auf Null aufgeblasene Poisson-Regressionsmodell wird für eine Stichprobe durch und es wird ferner angenommen, dass die Parameter und erfüllt sindY i = { 0 mit der Wahrscheinlichkeit p i + ( 1 - p i ) e - λ i k mit der Wahrscheinlichkeit ( 1 - p i …
Angenommen, ich beobachte iid und möchte testen vech für a konforme Matrix und Vektor . Gibt es bekannte Arbeiten zu diesem Problem?xi∼N(μ,Σ)xi∼N(μ,Σ)x_i \sim \mathcal{N}\left(\mu,\Sigma\right)H0:A H0:A H_0: A\ (Σ−1)=a(Σ−1)=a\left(\Sigma^{-1}\right) = aAAAaaa Der offensichtliche (für mich) Versuch würde über einen Likelihood-Ratio-Test erfolgen, aber es scheint, als würde die Maximierung der Wahrscheinlichkeit, die …
Ich habe während meiner Schulzeit und an der Universität genug Kurse über Statistik gehabt. Ich habe ein gutes Verständnis für die Konzepte wie CI, p-Werte, Interpretation der statistischen Signifikanz, Mehrfachtests, Korrelation, einfache lineare Regression (mit kleinsten Quadraten) (allgemeine lineare Modelle) und alle Hypothesentests. Ich war in den früheren Tagen größtenteils …
Die Tests Wald, Likelihood Ratio und Lagrange Multiplier im Rahmen der Maximum Likelihood Estimation sind asymptotisch äquivalent. Bei kleinen Stichproben weichen sie jedoch tendenziell stark voneinander ab und führen in einigen Fällen zu unterschiedlichen Schlussfolgerungen. Wie können sie danach eingestuft werden, wie wahrscheinlich es ist, dass sie die Null ablehnen? …
Ein Patient wird ins Krankenhaus eingeliefert. Ihre Aufenthaltsdauer hängt von zwei Dingen ab: der Schwere ihrer Verletzung und der Höhe ihrer Versicherungsbereitschaft, um sie im Krankenhaus zu halten. Einige Patienten werden vorzeitig abreisen, wenn ihre Versicherung beschließt, die Zahlung für ihren Aufenthalt einzustellen. Nehmen Sie Folgendes an: 1) Die Verweildauer …
Meine Frage ergibt sich aus dem Lesen von Minkas "Schätzung einer Dirichlet-Verteilung" , in dem Folgendes ohne Beweis im Zusammenhang mit der Ableitung eines Maximum-Likelihood-Schätzers für eine Dirichlet-Verteilung auf der Grundlage von Beobachtungen von Zufallsvektoren angegeben wird: Wie immer bei der Exponentialfamilie sind bei einem Gradienten von Null die erwarteten …
Ich möchte einige Fakten zu Maximum Likelihood Estimators (MLEs) für logistische Regressionen verstehen. Stimmt es, dass die MLE für die logistische Regression im Allgemeinen voreingenommen ist? Ich würde Ja sagen". Ich weiß zum Beispiel, dass die Probendimension mit der asymptotischen Verzerrung von MLEs zusammenhängt. Kennen Sie elementare Beispiele für dieses …
Ich habe bis erreicht dlnLdμ=∑i=1n2(xi−u)1+(xi−u)2dlnLdμ=∑i=1n2(xi−u)1+(xi−u)2\frac{d\ln L}{d\mu}=\sum_{i=1}^n \frac{2(x_i-u)}{1+(x_i-u)^2} Wobei uuu Standortparameter ist. Und LLL ist die Wahrscheinlichkeitsfunktion. Ich verstehe nicht, wie ich vorgehen soll. Bitte helfen Sie.
Mathematisch gesehen wird oft gesehen, dass Ausdrücke und Algorithmen für die Erwartungsmaximierung (Expectation Maximization, EM) für gemischte Modelle oft einfacher sind, aber es scheint, dass fast alles (wenn nicht alles), was mit EM gelöst werden kann, auch mit MLE gelöst werden kann (z. B. durch die Newton-Raphson-Methode für Ausdrücke, die …
Ich lese ein Konferenzpapier von Geyer aus dem Jahr 1991, das unten verlinkt ist. Darin scheint er sich einer Methode zu entziehen, die MCMC für die MLE-Parameterschätzung verwenden kann Dies reizt mich, da ich BFGS-Algorithmen, GAs und alle Arten dieser schrecklichen handgewellten Lucky-Dip- Methoden codiert habe , um globale Minima …
Betrachten Sie die Bayes - posterior θ∣Xθ∣X\theta\mid X . Asymptotisch tritt ihr Maximum bei der Schätzung MLE θ , der nur die Wahrscheinlichkeit maximiert argmin θθ^θ^\hat \thetaargminθfθ(X)argminθfθ(X)\operatorname{argmin}_\theta\, f_\theta(X) . Alle diese Konzepte - Bayesianische Prioritäten, die die Wahrscheinlichkeit maximieren - klingen super prinzipiell und überhaupt nicht willkürlich. Es ist kein …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.