Bei einer Zufallsvariablen die sich aus einer parametrisierten Verteilung F (X; θ) ergibt, ist die Wahrscheinlichkeit als die Wahrscheinlichkeit beobachteter Daten als Funktion von θ definiert: \ text {L} (θ) = \ text {P} (θ) ; X = x)X.F.( X.;; θ )θ :L( θ )=P( θ ;X.= x )
Die Wikipedia-Seite behauptet, dass Wahrscheinlichkeit und Wahrscheinlichkeit unterschiedliche Konzepte sind. Im nichttechnischen Sprachgebrauch ist "Wahrscheinlichkeit" normalerweise ein Synonym für "Wahrscheinlichkeit", im statistischen Sprachgebrauch gibt es jedoch eine klare Unterscheidung in Bezug auf die Perspektive: Die Zahl, die die Wahrscheinlichkeit einiger beobachteter Ergebnisse bei einer Reihe von Parameterwerten ist, wird als …
Ich beginne mit der Verwendung von dabble glmnetmit LASSO Regression , wo mein Ergebnis von Interesse dichotomous ist. Ich habe unten einen kleinen nachgebildeten Datenrahmen erstellt: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- …
Diese Frage hat mich lange Zeit verwirrt. Ich verstehe die Verwendung von "log" zur Maximierung der Wahrscheinlichkeit, daher frage ich nicht nach "log". Meine Frage ist, warum wir diese NLL erfunden haben, da die Maximierung der Protokollwahrscheinlichkeit der Minimierung der "negativen Protokollwahrscheinlichkeit" (NLL) entspricht. Warum nutzen wir die "positive Wahrscheinlichkeit" …
Wenn das Interesse lediglich die Parameter eines Modells schätzt (punktweise und / oder Intervallschätzung) und die vorherigen Informationen nicht zuverlässig und schwach sind (ich weiß, dass dies ein bisschen vage ist, aber ich versuche, ein Szenario zu etablieren, in dem die Wahl von a Prior ist schwierig) ... Warum sollte …
Grob gesagt ergibt ein p-Wert eine Wahrscheinlichkeit für das beobachtete Ergebnis eines Experiments, wenn die Hypothese (Modell) gegeben ist. Mit dieser Wahrscheinlichkeit (p-Wert) wollen wir unsere Hypothese beurteilen (wie wahrscheinlich es ist). Aber wäre es nicht natürlicher, die Wahrscheinlichkeit der Hypothese unter Berücksichtigung des beobachteten Ergebnisses zu berechnen? In mehr …
Die Wahrscheinlichkeit kann auf verschiedene Arten definiert werden, zum Beispiel: die Funktion LLL von Θ × XΘ×X\Theta\times{\cal X} die Karten ( θ , x )(θ,x)(\theta,x) zu L ( θ | x )L(θ∣x)L(\theta \mid x) , das heißt L : Θ × X → RL:Θ×X→RL:\Theta\times{\cal X} \rightarrow \mathbb{R} . die Zufallsfunktion …
Angenommen, wir haben eine Zufallsvariable . Wenn der wahre Parameter wäre, sollte die Wahrscheinlichkeitsfunktion maximiert und die Ableitung gleich Null sein. Dies ist das Grundprinzip des Maximum-Likelihood-Schätzers.X∼f(x|θ)X∼f(x|θ)X \sim f(x|\theta)θ0θ0\theta_0 Wie ich es verstehe, ist Fisher Information definiert als I(θ)=E[(∂∂θf(X|θ))2]I(θ)=E[(∂∂θf(X|θ))2]I(\theta) = \Bbb E \Bigg[\left(\frac{\partial}{\partial \theta}f(X|\theta)\right)^2\Bigg ] Wenn also der wahre Parameter …
Ich habe von Owens empirischer Wahrscheinlichkeit gehört, habe sie aber bis vor kurzem nicht beachtet, bis ich auf sie in einem Papier von Interesse gestoßen bin ( Mengersen et al. 2012 ). Um es zu verstehen, habe ich herausgefunden, dass die Wahrscheinlichkeit der beobachteten Daten als , wobei und .L=∏ipi=∏iP(Xi=x)=∏iP(Xi≤x)−P(Xi<x)L=∏ipi=∏iP(Xi=x)=∏iP(Xi≤x)−P(Xi<x)L …
Ich habe eine einfache Frage bezüglich "bedingter Wahrscheinlichkeit" und "Wahrscheinlichkeit". (Ich habe diese Frage hier bereits untersucht , aber ohne Erfolg.) Es beginnt auf der Wikipedia- Seite zur Wahrscheinlichkeit . Sie sagen das: Die Wahrscheinlichkeit eines Satzes von Parameterwerten θθ\theta bei gegebenen Ergebnissen xxx ist gleich der Wahrscheinlichkeit dieser beobachteten …
Dies ist eine wiederkehrende Frage (siehe diesen Beitrag , diesen Beitrag und diesen Beitrag ), aber ich habe einen anderen Dreh. Angenommen, ich habe ein paar Samples von einem generischen MCMC-Sampler. Für jede Probe , weiß ich den Wert der Log - Likelihood und des log vor . Wenn es …
Ich habe versucht, ein auf Intuition basierendes Verständnis des Bayes'schen Theorems in Bezug auf Prior , Posterior , Likelihood und marginale Wahrscheinlichkeit zu entwickeln. Dafür verwende ich die folgende Gleichung: wobei eine Hypothese oder einen Glauben darstellt und Daten oder Beweise darstellt. Ich habe das Konzept des Seitenzahns verstanden - …
Einige Quellen sagen, dass die Wahrscheinlichkeitsfunktion keine bedingte Wahrscheinlichkeit ist, andere sagen, dass dies der Fall ist. Das ist sehr verwirrend für mich. Nach den meisten Quellen, die ich gesehen habe, sollte die Wahrscheinlichkeit einer Verteilung mit dem Parameter ein Produkt von Wahrscheinlichkeitsmassenfunktionen sein, wenn Stichproben von :n x iθθ\thetannnxixix_i …
Wenn der Prior und die Wahrscheinlichkeit sehr unterschiedlich sind, tritt manchmal eine Situation auf, in der der Posterior keinem von beiden ähnlich ist. Siehe zum Beispiel dieses Bild, das Normalverteilungen verwendet. Obwohl dies mathematisch korrekt ist, scheint es nicht mit meiner Intuition übereinzustimmen - wenn die Daten nicht mit meinen …
Ich schreibe einen Algorithmus, bei dem ich anhand eines Modells Wahrscheinlichkeiten für eine Liste von Datensätzen berechne und dann jede Wahrscheinlichkeit normalisieren muss. So könnte etwas wie [0,00043, 0,00004, 0,00321] in [0,2, 0,03, 0,77] umgewandelt werden. Mein Problem ist, dass die Log-Wahrscheinlichkeiten, mit denen ich arbeite, ziemlich klein sind (zum …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.