Bei einer Zufallsvariablen die sich aus einer parametrisierten Verteilung F (X; θ) ergibt, ist die Wahrscheinlichkeit als die Wahrscheinlichkeit beobachteter Daten als Funktion von θ definiert: \ text {L} (θ) = \ text {P} (θ) ; X = x)X.F.( X.;; θ )θ :L( θ )=P( θ ;X.= x )
Die Wikipedia-Seite behauptet, dass Wahrscheinlichkeit und Wahrscheinlichkeit unterschiedliche Konzepte sind. Im nichttechnischen Sprachgebrauch ist "Wahrscheinlichkeit" normalerweise ein Synonym für "Wahrscheinlichkeit", im statistischen Sprachgebrauch gibt es jedoch eine klare Unterscheidung in Bezug auf die Perspektive: Die Zahl, die die Wahrscheinlichkeit einiger beobachteter Ergebnisse bei einer Reihe von Parameterwerten ist, wird als …
Ich beginne mit der Verwendung von dabble glmnetmit LASSO Regression , wo mein Ergebnis von Interesse dichotomous ist. Ich habe unten einen kleinen nachgebildeten Datenrahmen erstellt: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- …
Diese Frage hat mich lange Zeit verwirrt. Ich verstehe die Verwendung von "log" zur Maximierung der Wahrscheinlichkeit, daher frage ich nicht nach "log". Meine Frage ist, warum wir diese NLL erfunden haben, da die Maximierung der Protokollwahrscheinlichkeit der Minimierung der "negativen Protokollwahrscheinlichkeit" (NLL) entspricht. Warum nutzen wir die "positive Wahrscheinlichkeit" …
Wenn das Interesse lediglich die Parameter eines Modells schätzt (punktweise und / oder Intervallschätzung) und die vorherigen Informationen nicht zuverlässig und schwach sind (ich weiß, dass dies ein bisschen vage ist, aber ich versuche, ein Szenario zu etablieren, in dem die Wahl von a Prior ist schwierig) ... Warum sollte …
Grob gesagt ergibt ein p-Wert eine Wahrscheinlichkeit für das beobachtete Ergebnis eines Experiments, wenn die Hypothese (Modell) gegeben ist. Mit dieser Wahrscheinlichkeit (p-Wert) wollen wir unsere Hypothese beurteilen (wie wahrscheinlich es ist). Aber wäre es nicht natürlicher, die Wahrscheinlichkeit der Hypothese unter Berücksichtigung des beobachteten Ergebnisses zu berechnen? In mehr …
Die Wahrscheinlichkeit kann auf verschiedene Arten definiert werden, zum Beispiel: die Funktion LLL von Θ × XΘ×X\Theta\times{\cal X} die Karten ( θ , x )(θ,x)(\theta,x) zu L ( θ | x )L(θ∣x)L(\theta \mid x) , das heißt L : Θ × X → RL:Θ×X→RL:\Theta\times{\cal X} \rightarrow \mathbb{R} . die Zufallsfunktion …
Angenommen, wir haben eine Zufallsvariable . Wenn der wahre Parameter wäre, sollte die Wahrscheinlichkeitsfunktion maximiert und die Ableitung gleich Null sein. Dies ist das Grundprinzip des Maximum-Likelihood-Schätzers.X∼f(x|θ)X∼f(x|θ)X \sim f(x|\theta)θ0θ0\theta_0 Wie ich es verstehe, ist Fisher Information definiert als I(θ)=E[(∂∂θf(X|θ))2]I(θ)=E[(∂∂θf(X|θ))2]I(\theta) = \Bbb E \Bigg[\left(\frac{\partial}{\partial \theta}f(X|\theta)\right)^2\Bigg ] Wenn also der wahre Parameter …
Ich habe von Owens empirischer Wahrscheinlichkeit gehört, habe sie aber bis vor kurzem nicht beachtet, bis ich auf sie in einem Papier von Interesse gestoßen bin ( Mengersen et al. 2012 ). Um es zu verstehen, habe ich herausgefunden, dass die Wahrscheinlichkeit der beobachteten Daten als , wobei und .L=∏ipi=∏iP(Xi=x)=∏iP(Xi≤x)−P(Xi<x)L=∏ipi=∏iP(Xi=x)=∏iP(Xi≤x)−P(Xi<x)L …
Ich habe eine einfache Frage bezüglich "bedingter Wahrscheinlichkeit" und "Wahrscheinlichkeit". (Ich habe diese Frage hier bereits untersucht , aber ohne Erfolg.) Es beginnt auf der Wikipedia- Seite zur Wahrscheinlichkeit . Sie sagen das: Die Wahrscheinlichkeit eines Satzes von Parameterwerten θθ\theta bei gegebenen Ergebnissen xxx ist gleich der Wahrscheinlichkeit dieser beobachteten …
Dies ist eine wiederkehrende Frage (siehe diesen Beitrag , diesen Beitrag und diesen Beitrag ), aber ich habe einen anderen Dreh. Angenommen, ich habe ein paar Samples von einem generischen MCMC-Sampler. Für jede Probe , weiß ich den Wert der Log - Likelihood und des log vor . Wenn es …
Ich habe versucht, ein auf Intuition basierendes Verständnis des Bayes'schen Theorems in Bezug auf Prior , Posterior , Likelihood und marginale Wahrscheinlichkeit zu entwickeln. Dafür verwende ich die folgende Gleichung: wobei eine Hypothese oder einen Glauben darstellt und Daten oder Beweise darstellt. Ich habe das Konzept des Seitenzahns verstanden - …
Einige Quellen sagen, dass die Wahrscheinlichkeitsfunktion keine bedingte Wahrscheinlichkeit ist, andere sagen, dass dies der Fall ist. Das ist sehr verwirrend für mich. Nach den meisten Quellen, die ich gesehen habe, sollte die Wahrscheinlichkeit einer Verteilung mit dem Parameter ein Produkt von Wahrscheinlichkeitsmassenfunktionen sein, wenn Stichproben von :n x iθθ\thetannnxixix_i …
Wenn der Prior und die Wahrscheinlichkeit sehr unterschiedlich sind, tritt manchmal eine Situation auf, in der der Posterior keinem von beiden ähnlich ist. Siehe zum Beispiel dieses Bild, das Normalverteilungen verwendet. Obwohl dies mathematisch korrekt ist, scheint es nicht mit meiner Intuition übereinzustimmen - wenn die Daten nicht mit meinen …
Ich schreibe einen Algorithmus, bei dem ich anhand eines Modells Wahrscheinlichkeiten für eine Liste von Datensätzen berechne und dann jede Wahrscheinlichkeit normalisieren muss. So könnte etwas wie [0,00043, 0,00004, 0,00321] in [0,2, 0,03, 0,77] umgewandelt werden. Mein Problem ist, dass die Log-Wahrscheinlichkeiten, mit denen ich arbeite, ziemlich klein sind (zum …
Gibt es ein Beispiel, bei dem zwei verschiedene verteidigungsfähige Tests mit proportionalen Wahrscheinlichkeiten zu deutlich unterschiedlichen (und gleichermaßen verteidigungsfähigen) Schlussfolgerungen führen würden, beispielsweise wenn die p-Werte um Größenordnungen voneinander entfernt sind, die Potenz zu Alternativen jedoch ähnlich ist? Alle Beispiele, die ich sehe, sind sehr dumm und vergleichen ein Binom …
In einem kürzlich hier veröffentlichten Kommentar verwies ein Kommentator auf einen Blog von Larry Wasserman, der (ohne Quellenangabe) darauf hinwies, dass frequentistische Schlussfolgerungen mit dem Wahrscheinlichkeitsprinzip in Konflikt stehen. Das Wahrscheinlichkeitsprinzip besagt einfach, dass Experimente mit ähnlichen Wahrscheinlichkeitsfunktionen ähnliche Schlussfolgerungen liefern sollten. Zwei Teile zu dieser Frage: Welche Teile, der …
Betrachten wir einen Vektor von Parametern , mit den Parameter von Interesse, und ein Störparameter.θ 1 θ 2(θ1,θ2)(θ1,θ2)(\theta_1, \theta_2)θ1θ1\theta_1θ2θ2\theta_2 Wenn die Wahrscheinlichkeit , dass aus den Daten aufgebaut ist x , die Profil Wahrscheinlichkeit für θ 1 ist definiert als L P ( θ 1 ; x ) = L …
Ich lese einen Artikel, in dem die Autoren von einer Diskussion über die Schätzung der maximalen Wahrscheinlichkeit zu Bayes 'Theorem führen, angeblich als Einführung für Anfänger. Als Beispiel für die Wahrscheinlichkeit beginnen sie mit einer Binomialverteilung: p(x|n,θ)=(nx)θx(1−θ)n−xp(x|n,θ)=(nx)θx(1−θ)n−xp(x|n,\theta) = \binom{n}{x}\theta^x(1-\theta)^{n-x} und loggen Sie dann beide Seiten ℓ(θ|x,n)=xln(θ)+(n−x)ln(1−θ)ℓ(θ|x,n)=xln(θ)+(n−x)ln(1−θ)\ell(\theta|x, n) = x \ln …
Ich versuche, die Allgegenwart der log-Wahrscheinlichkeit (und vielleicht allgemeiner log-Wahrscheinlichkeit) in der Statistik und in der Wahrscheinlichkeitstheorie auf einer tieferen Ebene zu verstehen. Log-Wahrscheinlichkeiten tauchen überall auf: Wir arbeiten normalerweise mit der Log-Wahrscheinlichkeit für die Analyse (z. B. zur Maximierung), die Fisher-Information wird als zweite Ableitung der Log-Wahrscheinlichkeit definiert, Entropie …
Es wird oft argumentiert, dass das Bayes'sche Gerüst einen großen Vorteil bei der Interpretation hat (gegenüber dem Frequentisten), weil es die Wahrscheinlichkeit eines Parameters berechnet, wenn die Daten gegeben sind - anstelle von wie in frequentistischer Rahmen. So weit, ist es gut.p ( x | θ )p ( θ | …
Ich versuche derzeit, das Likelihood-Prinzip zu verstehen und verstehe es ehrlich gesagt überhaupt nicht. Also werde ich alle meine Fragen als Liste schreiben, auch wenn dies ziemlich grundlegende Fragen sein mögen. Was genau bedeutet "alle Informationen" im Kontext dieses Prinzips? (Wie bei allen Informationen in einer Stichprobe ist die Wahrscheinlichkeitsfunktion …
Das Wesentliche meiner Frage ist: Sei eine multivariate normale Zufallsvariable mit Mittelwert und Kovarianzmatrix . Sei , dh . Wie vergleiche ich den AIC eines Modells, das mit beobachteten Realisierungen von übereinstimmt, mit einem Modell, das mit beobachteten Realisierungen von ? μ Σ Z : = log ( Y ) …
Die ungefähre Bayes'sche Berechnung ist eine wirklich coole Technik, um im Grunde jedes stochastische Modell anzupassen, das für Modelle gedacht ist, bei denen die Wahrscheinlichkeit schwer zu bestimmen ist (Sie können beispielsweise aus dem Modell eine Stichprobe ziehen, wenn Sie die Parameter festlegen , die Wahrscheinlichkeit jedoch nicht numerisch, algorithmisch …
Der univariate exponentielle Hawkes-Prozess ist ein aufregender Punktprozess mit einer Ereignisankunftsrate von: λ ( t ) = μ + ∑tich< tα e- β( t - tich)λ(t)=μ+∑ti<tαe−β(t−ti) \lambda(t) = \mu + \sum\limits_{t_i<t}{\alpha e^{-\beta(t-t_i)}} Dabei sind die Ereignisankunftszeiten.t1, . . tnt1,..tn t_1,..t_n Die Log Likelihood Funktion ist - tnμ + αβ∑ ( …
Für ein gegebenes Inferenzproblem wissen wir, dass sich ein Bayes'scher Ansatz normalerweise sowohl in der Form unterscheidet als auch aus einem fequentistischen Ansatz resultiert. Frequentisten (in der Regel auch ich) weisen häufig darauf hin, dass für ihre Methoden keine vorherige Verwendung erforderlich ist und sie daher eher "datengesteuert" als "urteilsgesteuert" …
Was ist die häufigste Meinung zu der Voltmeter-Geschichte und ihren Variationen? Die Idee dahinter ist, dass eine statistische Analyse, die sich auf hypothetische Ereignisse bezieht, überarbeitet werden muss, wenn später festgestellt wird, dass diese hypothetischen Ereignisse nicht wie angenommen hätten stattfinden können. Die Version der Geschichte auf Wikipedia ist unten …
Diese Frage ergibt sich aus der Frage: Wann (wenn überhaupt) ist ein frequentistischer Ansatz wesentlich besser als ein bayesianischer? Wie ich in meiner Lösung zu dieser Frage geschrieben habe, müssen Sie meiner Meinung nach, wenn Sie ein Frequentist sind, nicht an das Wahrscheinlichkeitsprinzip glauben / sich daran halten, da die …
Ich habe einen Code geschrieben, der die Kalman-Filterung (unter Verwendung einer Reihe verschiedener Kalman-Filter [Information Filter et al.]) Für die lineare Gaußsche Zustandsraumanalyse für einen n-dimensionalen Zustandsvektor durchführen kann. Die Filter funktionieren sehr gut und ich bekomme eine schöne Ausgabe. Die Parameterschätzung über die Loglikelihood-Schätzung verwirrt mich jedoch. Ich bin …
1. Das Problem Ich habe einige Messungen einer Variablen ytyty_t , wobei t=1,2,..,nt=1,2,..,nt=1,2,..,n , für die ich eine Verteilung fyt(yt)fyt(yt)f_{y_t}(y_t) die über MCMC erhalten wurde. Der Einfachheit halber nehme ich an, dass es sich um einen Gaußschen Mittelwert von μtμt\mu_t und Varianz σ2tσt2\sigma_t^2 . Ich habe ein physikalisches Modell für …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.