Als «likelihood» getaggte Fragen

Bei einer Zufallsvariablen die sich aus einer parametrisierten Verteilung F (X; θ) ergibt, ist die Wahrscheinlichkeit als die Wahrscheinlichkeit beobachteter Daten als Funktion von θ definiert: \ text {L} (θ) = \ text {P} (θ) ; X = x)XF(X;θ)θ:L(θ)=P(θ;X=x)

10
Was ist der Unterschied zwischen "Wahrscheinlichkeit" und "Wahrscheinlichkeit"?
Die Wikipedia-Seite behauptet, dass Wahrscheinlichkeit und Wahrscheinlichkeit unterschiedliche Konzepte sind. Im nichttechnischen Sprachgebrauch ist "Wahrscheinlichkeit" normalerweise ein Synonym für "Wahrscheinlichkeit", im statistischen Sprachgebrauch gibt es jedoch eine klare Unterscheidung in Bezug auf die Perspektive: Die Zahl, die die Wahrscheinlichkeit einiger beobachteter Ergebnisse bei einer Reihe von Parameterwerten ist, wird als …

3
Ein Beispiel: LASSO-Regression unter Verwendung von glmnet für binäre Ergebnisse
Ich beginne mit der Verwendung von dabble glmnetmit LASSO Regression , wo mein Ergebnis von Interesse dichotomous ist. Ich habe unten einen kleinen nachgebildeten Datenrahmen erstellt: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 


4
Warum minimieren wir die negative Wahrscheinlichkeit, wenn sie der Maximierung der Wahrscheinlichkeit entspricht?
Diese Frage hat mich lange Zeit verwirrt. Ich verstehe die Verwendung von "log" zur Maximierung der Wahrscheinlichkeit, daher frage ich nicht nach "log". Meine Frage ist, warum wir diese NLL erfunden haben, da die Maximierung der Protokollwahrscheinlichkeit der Minimierung der "negativen Protokollwahrscheinlichkeit" (NLL) entspricht. Warum nutzen wir die "positive Wahrscheinlichkeit" …

7
Warum sollte jemand einen Bayes'schen Ansatz mit einem "nicht informativen" unangemessenen Vorgänger anstelle des klassischen Ansatzes verwenden?
Wenn das Interesse lediglich die Parameter eines Modells schätzt (punktweise und / oder Intervallschätzung) und die vorherigen Informationen nicht zuverlässig und schwach sind (ich weiß, dass dies ein bisschen vage ist, aber ich versuche, ein Szenario zu etablieren, in dem die Wahl von a Prior ist schwierig) ... Warum sollte …

9
Warum verwenden Menschen p-Werte anstelle der Berechnung der Wahrscheinlichkeit für das gegebene Modell?
Grob gesagt ergibt ein p-Wert eine Wahrscheinlichkeit für das beobachtete Ergebnis eines Experiments, wenn die Hypothese (Modell) gegeben ist. Mit dieser Wahrscheinlichkeit (p-Wert) wollen wir unsere Hypothese beurteilen (wie wahrscheinlich es ist). Aber wäre es nicht natürlicher, die Wahrscheinlichkeit der Hypothese unter Berücksichtigung des beobachteten Ergebnisses zu berechnen? In mehr …


3
Welche Informationen sind Fisher-Informationen?
Angenommen, wir haben eine Zufallsvariable . Wenn der wahre Parameter wäre, sollte die Wahrscheinlichkeitsfunktion maximiert und die Ableitung gleich Null sein. Dies ist das Grundprinzip des Maximum-Likelihood-Schätzers.X∼f(x|θ)X∼f(x|θ)X \sim f(x|\theta)θ0θ0\theta_0 Wie ich es verstehe, ist Fisher Information definiert als I(θ)=E[(∂∂θf(X|θ))2]I(θ)=E[(∂∂θf(X|θ))2]I(\theta) = \Bbb E \Bigg[\left(\frac{\partial}{\partial \theta}f(X|\theta)\right)^2\Bigg ] Wenn also der wahre Parameter …

3
Was sind einige illustrative Anwendungen der empirischen Wahrscheinlichkeit?
Ich habe von Owens empirischer Wahrscheinlichkeit gehört, habe sie aber bis vor kurzem nicht beachtet, bis ich auf sie in einem Papier von Interesse gestoßen bin ( Mengersen et al. 2012 ). Um es zu verstehen, habe ich herausgefunden, dass die Wahrscheinlichkeit der beobachteten Daten als , wobei und .L=∏ipi=∏iP(Xi=x)=∏iP(Xi≤x)−P(Xi<x)L=∏ipi=∏iP(Xi=x)=∏iP(Xi≤x)−P(Xi<x)L …

5
Der Wikipedia-Eintrag zur Wahrscheinlichkeit ist nicht eindeutig
Ich habe eine einfache Frage bezüglich "bedingter Wahrscheinlichkeit" und "Wahrscheinlichkeit". (Ich habe diese Frage hier bereits untersucht , aber ohne Erfolg.) Es beginnt auf der Wikipedia- Seite zur Wahrscheinlichkeit . Sie sagen das: Die Wahrscheinlichkeit eines Satzes von Parameterwerten θθ\theta bei gegebenen Ergebnissen xxx ist gleich der Wahrscheinlichkeit dieser beobachteten …


5
Bayes Theorem Intuition
Ich habe versucht, ein auf Intuition basierendes Verständnis des Bayes'schen Theorems in Bezug auf Prior , Posterior , Likelihood und marginale Wahrscheinlichkeit zu entwickeln. Dafür verwende ich die folgende Gleichung: wobei eine Hypothese oder einen Glauben darstellt und Daten oder Beweise darstellt. Ich habe das Konzept des Seitenzahns verstanden - …

3
Gibt es einen Unterschied zwischen Frequentist und Bayesian in der Definition der Wahrscheinlichkeit?
Einige Quellen sagen, dass die Wahrscheinlichkeitsfunktion keine bedingte Wahrscheinlichkeit ist, andere sagen, dass dies der Fall ist. Das ist sehr verwirrend für mich. Nach den meisten Quellen, die ich gesehen habe, sollte die Wahrscheinlichkeit einer Verteilung mit dem Parameter ein Produkt von Wahrscheinlichkeitsmassenfunktionen sein, wenn Stichproben von :n x iθθ\thetannnxixix_i …

6
Posterior sehr unterschiedlich zu Prior und Likelihood
Wenn der Prior und die Wahrscheinlichkeit sehr unterschiedlich sind, tritt manchmal eine Situation auf, in der der Posterior keinem von beiden ähnlich ist. Siehe zum Beispiel dieses Bild, das Normalverteilungen verwendet. Obwohl dies mathematisch korrekt ist, scheint es nicht mit meiner Intuition übereinzustimmen - wenn die Daten nicht mit meinen …

1
Konvertieren (Normalisieren) sehr kleiner Wahrscheinlichkeitswerte in Wahrscheinlichkeit
Ich schreibe einen Algorithmus, bei dem ich anhand eines Modells Wahrscheinlichkeiten für eine Liste von Datensätzen berechne und dann jede Wahrscheinlichkeit normalisieren muss. So könnte etwas wie [0,00043, 0,00004, 0,00321] in [0,2, 0,03, 0,77] umgewandelt werden. Mein Problem ist, dass die Log-Wahrscheinlichkeiten, mit denen ich arbeite, ziemlich klein sind (zum …

5
Ein Beispiel, bei dem das Wahrscheinlichkeitsprinzip * wirklich * wichtig ist?
Gibt es ein Beispiel, bei dem zwei verschiedene verteidigungsfähige Tests mit proportionalen Wahrscheinlichkeiten zu deutlich unterschiedlichen (und gleichermaßen verteidigungsfähigen) Schlussfolgerungen führen würden, beispielsweise wenn die p-Werte um Größenordnungen voneinander entfernt sind, die Potenz zu Alternativen jedoch ähnlich ist? Alle Beispiele, die ich sehe, sind sehr dumm und vergleichen ein Binom …

2
Wenn das Wahrscheinlichkeitsprinzip mit der Wahrscheinlichkeit eines Frequentisten kollidiert, verwerfen wir dann eines davon?
In einem kürzlich hier veröffentlichten Kommentar verwies ein Kommentator auf einen Blog von Larry Wasserman, der (ohne Quellenangabe) darauf hinwies, dass frequentistische Schlussfolgerungen mit dem Wahrscheinlichkeitsprinzip in Konflikt stehen. Das Wahrscheinlichkeitsprinzip besagt einfach, dass Experimente mit ähnlichen Wahrscheinlichkeitsfunktionen ähnliche Schlussfolgerungen liefern sollten. Zwei Teile zu dieser Frage: Welche Teile, der …


5
Was bedeutet „Wahrscheinlichkeit wird nur bis zu einer multiplikativen Proportionalitätskonstante definiert“ in der Praxis?
Ich lese einen Artikel, in dem die Autoren von einer Diskussion über die Schätzung der maximalen Wahrscheinlichkeit zu Bayes 'Theorem führen, angeblich als Einführung für Anfänger. Als Beispiel für die Wahrscheinlichkeit beginnen sie mit einer Binomialverteilung: p(x|n,θ)=(nx)θx(1−θ)n−xp(x|n,θ)=(nx)θx(1−θ)n−xp(x|n,\theta) = \binom{n}{x}\theta^x(1-\theta)^{n-x} und loggen Sie dann beide Seiten ℓ(θ|x,n)=xln(θ)+(n−x)ln(1−θ)ℓ(θ|x,n)=xln⁡(θ)+(n−x)ln⁡(1−θ)\ell(\theta|x, n) = x \ln …

4
Theoretische Motivation für die Verwendung von Log-Likelihood vs. Likelihood
Ich versuche, die Allgegenwart der log-Wahrscheinlichkeit (und vielleicht allgemeiner log-Wahrscheinlichkeit) in der Statistik und in der Wahrscheinlichkeitstheorie auf einer tieferen Ebene zu verstehen. Log-Wahrscheinlichkeiten tauchen überall auf: Wir arbeiten normalerweise mit der Log-Wahrscheinlichkeit für die Analyse (z. B. zur Maximierung), die Fisher-Information wird als zweite Ableitung der Log-Wahrscheinlichkeit definiert, Entropie …

4
Wie lässt sich das Bayes'sche Gerüst besser interpretieren, wenn wir normalerweise uninformative oder subjektive Prioritäten verwenden?
Es wird oft argumentiert, dass das Bayes'sche Gerüst einen großen Vorteil bei der Interpretation hat (gegenüber dem Frequentisten), weil es die Wahrscheinlichkeit eines Parameters berechnet, wenn die Daten gegeben sind - anstelle von wie in frequentistischer Rahmen. So weit, ist es gut.p ( x | θ )p ( θ | …

1
Fragen zum Wahrscheinlichkeitsprinzip
Ich versuche derzeit, das Likelihood-Prinzip zu verstehen und verstehe es ehrlich gesagt überhaupt nicht. Also werde ich alle meine Fragen als Liste schreiben, auch wenn dies ziemlich grundlegende Fragen sein mögen. Was genau bedeutet "alle Informationen" im Kontext dieses Prinzips? (Wie bei allen Informationen in einer Stichprobe ist die Wahrscheinlichkeitsfunktion …


2
Was wäre ein Beispiel für ein wirklich einfaches Modell mit einer unlösbaren Wahrscheinlichkeit?
Die ungefähre Bayes'sche Berechnung ist eine wirklich coole Technik, um im Grunde jedes stochastische Modell anzupassen, das für Modelle gedacht ist, bei denen die Wahrscheinlichkeit schwer zu bestimmen ist (Sie können beispielsweise aus dem Modell eine Stichprobe ziehen, wenn Sie die Parameter festlegen , die Wahrscheinlichkeit jedoch nicht numerisch, algorithmisch …

3
Finden der MLE für einen univariaten exponentiellen Hawkes-Prozess
Der univariate exponentielle Hawkes-Prozess ist ein aufregender Punktprozess mit einer Ereignisankunftsrate von: λ ( t ) = μ + ∑tich&lt; tα e- β( t - tich)λ(t)=μ+∑ti&lt;tαe−β(t−ti) \lambda(t) = \mu + \sum\limits_{t_i<t}{\alpha e^{-\beta(t-t_i)}} Dabei sind die Ereignisankunftszeiten.t1, . . tnt1,..tn t_1,..t_n Die Log Likelihood Funktion ist - tnμ + αβ∑ ( …

2
Sind wir Frequentisten wirklich nur implizite / unwissende Bayesianer?
Für ein gegebenes Inferenzproblem wissen wir, dass sich ein Bayes'scher Ansatz normalerweise sowohl in der Form unterscheidet als auch aus einem fequentistischen Ansatz resultiert. Frequentisten (in der Regel auch ich) weisen häufig darauf hin, dass für ihre Methoden keine vorherige Verwendung erforderlich ist und sie daher eher "datengesteuert" als "urteilsgesteuert" …

2
Was ist die häufigste Einstellung zur Voltmeter-Geschichte?
Was ist die häufigste Meinung zu der Voltmeter-Geschichte und ihren Variationen? Die Idee dahinter ist, dass eine statistische Analyse, die sich auf hypothetische Ereignisse bezieht, überarbeitet werden muss, wenn später festgestellt wird, dass diese hypothetischen Ereignisse nicht wie angenommen hätten stattfinden können. Die Version der Geschichte auf Wikipedia ist unten …


1
LogLikelihood-Parameterschätzung für linearen Gaußschen Kalman-Filter
Ich habe einen Code geschrieben, der die Kalman-Filterung (unter Verwendung einer Reihe verschiedener Kalman-Filter [Information Filter et al.]) Für die lineare Gaußsche Zustandsraumanalyse für einen n-dimensionalen Zustandsvektor durchführen kann. Die Filter funktionieren sehr gut und ich bekomme eine schöne Ausgabe. Die Parameterschätzung über die Loglikelihood-Schätzung verwirrt mich jedoch. Ich bin …

2
AR (1) -Prozess mit heteroskedastischen Messfehlern
1. Das Problem Ich habe einige Messungen einer Variablen ytyty_t , wobei t=1,2,..,nt=1,2,..,nt=1,2,..,n , für die ich eine Verteilung fyt(yt)fyt(yt)f_{y_t}(y_t) die über MCMC erhalten wurde. Der Einfachheit halber nehme ich an, dass es sich um einen Gaußschen Mittelwert von μtμt\mu_t und Varianz σ2tσt2\sigma_t^2 . Ich habe ein physikalisches Modell für …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.