Als «likelihood» getaggte Fragen

Bei einer Zufallsvariablen die sich aus einer parametrisierten Verteilung F (X; θ) ergibt, ist die Wahrscheinlichkeit als die Wahrscheinlichkeit beobachteter Daten als Funktion von θ definiert: \ text {L} (θ) = \ text {P} (θ) ; X = x)XF(X;θ)θ:L(θ)=P(θ;X=x)

2
Warum nicht den Bayes-Satz in der Form
Es gibt viele Fragen (wie diese ) über eine Mehrdeutigkeit mit der Bayes'schen Formel im kontinuierlichen Fall. p(θ|x)=p(x|θ)⋅p(θ)p(x)p(θ|x)=p(x|θ)⋅p(θ)p(x)p(\theta | x) = \frac{p(x | \theta) \cdot p(\theta)}{p(x)} Oft entsteht Verwirrung aus der Tatsache , dass Definition der bedingten Verteilung wird erklärt , wie ist abhängig von festen gegebenen .f(variable|parameter)f(variable|parameter)f(variable | parameter) …

1
Warum ist die Grenzwahrscheinlichkeit schwer / schwer abzuschätzen?
Ich habe hier eine allgemein grundlegende Frage zu stellen, die mich seit einiger Zeit beunruhigt. Während des größten Teils meiner Lektüre der Bayes'schen Statistik wurde sachlich festgestellt, dass die Grenzwahrscheinlichkeit oft unlösbar oder schwer abzuschätzen ist. Warum? Zu den häufig genannten Gründen gehören Aussagen über die hochdimensionale Natur des zu …

1
MLE eines multivariaten Hawkes-Prozesses
Ich habe Probleme mit der Implementierung des Maximum-Likelihood-Schätzers für einen multivariaten Hawkes-Prozess (HP). Während der analytische Ausdruck für eine Log-Likelihood-Funktion eines univariaten HP leicht online zu finden ist (z. B. Ozaki, 1979), scheint es unterschiedliche (inkonsistente oder äquivalente?) Versionen der Log-Likelihood-Funktion eines multivariaten HP zu geben dort draußen. Ich habe …

1
Was bedeutet hochgestellt in
Im Zusammenhang mit der wahrscheinlichkeitsbasierten Inferenz habe ich einige Notationen bezüglich der interessierenden Parameter gesehen, die ich etwas verwirrend fand. Zum Beispiel Notation wie pθ( x )pθ(x)p_{\theta}(x) und E.θ[ S.( θ ) ]Eθ[S(θ)]{\mathbb E}_{\theta}\left[S(\theta)\right] . Welche Bedeutung hat der Parameter ( θθ\theta ) in der obigen Indexnotation? Mit anderen Worten, …

3
MCMC zur Behandlung von Problemen mit geringer Wahrscheinlichkeit
Ich habe eine ziemlich geringe Wahrscheinlichkeit, dass sich Metropolis-Hastings-Sampler sehr unregelmäßig durch den Parameterraum bewegen, dh es kann keine Konvergenz erreicht werden, unabhängig von den Parametern der Angebotsverteilung (in meinem Fall ist es Gauß). Mein Modell weist keine hohe Komplexität auf - nur zwei Parameter, aber es scheint, dass MH …

1
Seltsame Wahrscheinlichkeitsspur von der MCMC-Kette
Ich habe ein Modell, das geht : Single parameter -> Complex likelihood function -> Log-likelihood. Ich habe eine MCMC-Kette (mit pymc) ausgeführt und die Spur des Parameters und die Log-Wahrscheinlichkeit aufgezeichnet. Die Parameterschätzung war vernünftig, aber das Log-Likelihood-Diagramm erscheint mir seltsam. Die Log-Wahrscheinlichkeit überschreitet niemals einen bestimmten Wert. Ich nehme …

3
Wahrscheinlichkeit von 10000: 1 Wahrscheinlichkeit tritt genau einmal in 10.000 Versuchen auf
Ich bin daran interessiert, den Unterschied zwischen der "Wahrscheinlichkeit" eines zufälligen Ereignisses und einer bestimmten Wahrscheinlichkeit, die tatsächlich auftritt, genau so zu verstehen, wie es als wahrscheinlich bezeichnet wird. dh wenn ein Ereignis eine Wahrscheinlichkeit von 1 zu 10000 hat, wie hoch ist die Wahrscheinlichkeit, dass es in 10000 Versuchen …

1
Wahrscheinlichkeit vs. Wahrscheinlichkeit
Ich habe Schwierigkeiten mit Wahrscheinlichkeiten . Ich verstehe den Satz von Bayes p(A|B,H)=p(B|A,H)p(A|H)p(B|H)p(A|B,H)=p(B|A,H)p(A|H)p(B|H)p(A|B, \mathcal{H}) = \frac{p(B|A, \mathcal{H}) p(A|\mathcal{H})}{p(B|\mathcal{H})} was direkt aus der Anwendung von . In meiner Interpretation sind die -Funktionen im Bayes-Theorem also irgendwie alle Wahrscheinlichkeiten, entweder marginal oder bedingt. Ich habe also tatsächlich gedacht, dass die Wahrscheinlichkeit als …

2
Warum würde ein statistisches Modell bei einem riesigen Datensatz überanpassen?
Für mein aktuelles Projekt muss ich möglicherweise ein Modell erstellen, um das Verhalten einer bestimmten Personengruppe vorherzusagen. Der Trainingsdatensatz enthält nur 6 Variablen (ID dient nur zu Identifikationszwecken): id, age, income, gender, job category, monthly spend in dem monthly spendist die Antwortvariable. Der Trainingsdatensatz enthält jedoch ungefähr 3 Millionen Zeilen, …
8 modeling  large-data  overfitting  clustering  algorithms  error  spatial  r  regression  predictive-models  linear-model  average  measurement-error  weighted-mean  error-propagation  python  standard-error  weighted-regression  hypothesis-testing  time-series  machine-learning  self-study  arima  regression  correlation  anova  statistical-significance  excel  r  regression  distributions  statistical-significance  contingency-tables  regression  optimization  measurement-error  loss-functions  image-processing  java  panel-data  probability  conditional-probability  r  lme4-nlme  model-comparison  time-series  probability  probability  conditional-probability  logistic  multiple-regression  model-selection  r  regression  model-based-clustering  svm  feature-selection  feature-construction  time-series  forecasting  stationarity  r  distributions  bootstrap  r  distributions  estimation  maximum-likelihood  garch  references  probability  conditional-probability  regression  logistic  regression-coefficients  model-comparison  confidence-interval  r  regression  r  generalized-linear-model  outliers  robust  regression  classification  categorical-data  r  association-rules  machine-learning  distributions  posterior  likelihood  r  hypothesis-testing  normality-assumption  missing-data  convergence  expectation-maximization  regression  self-study  categorical-data  regression  simulation  regression  self-study  self-study  gamma-distribution  modeling  microarray  synthetic-data 

2
Wahrscheinlichkeitsfunktion von abgeschnittenen Daten
Ich habe ein wenig Probleme, das Konzept und die Ableitung der Wahrscheinlichkeit von Datenkürzungen zu verstehen. Wenn ich zum Beispiel die Wahrscheinlichkeitsfunktion basierend auf einer Stichprobe aus einer Verteilung finden möchte, aber wenn ich eine Stichprobe aus der Verteilung nehme, beobachte ich die abgeschnittenen Werte (wobei es einen Grenzwert für …

2
Berechnung der Wahrscheinlichkeit, wenn
Ich versuche diese hintere Verteilung zu berechnen: (θ|−)=∏ni=1pyii(1−pi)1−yi∑allθ,pi|θ∏ni=1pyii(1−pi)1−yi(θ|−)=∏i=1npiyi(1−pi)1−yi∑allθ,pi|θ∏i=1npiyi(1−pi)1−yi (\theta|-)=\frac{\prod_{i=1}^{n}p_i^{y_i}(1-p_i)^{1-y_i}}{\sum_{\text{all}\,\theta,p_i|\theta}\prod_{i=1}^{n}p_i^{y_i}(1-p_i)^{1-y_i}} Das Problem ist, dass der Zähler, der das Produkt einer Reihe von -Wahrscheinlichkeiten ist, zu klein ist. (Mein ist groß, ungefähr 1500).Bernoulli(pi,yi)Bernoulli(pi,yi)\text{Bernoulli}(p_i,y_i)nnn Daher werden die posterioren Werte für all all zu 0 berechnet (ich berechne in R).θθ\theta Zur Verdeutlichung hat jedes …



2
Die Score-Funktion von Fisher hat den Mittelwert Null - was bedeutet das überhaupt?
Ich versuche, der prinzipiellen Überprüfung der Wahrscheinlichkeitstheorie zu folgen . Sie definieren Fisher’s score functionals Die erste Ableitung der Log-Likelihood-Funktion und sie sagen, dass die Punktzahl ein Zufallsvektor ist. ZB für die geometrische Verteilung: u(π) = n(1π- -y¯1 - π)u(π)=n(1π- -y¯1- -π) u(\pi) = n\left(\frac{1}{\pi} - \frac{\bar{y}}{1-\pi} \right) Und ich …

1
Helfen Sie dabei, den Schülern die Punktefunktion und die Informationen des Fischers zu erklären (Intuition / Beispiele dafür anzubieten)
Nächste Woche werde ich meinen Schülern die Score-Funktion und ihre Varianz beibringen (dh: Informationen für Fischer ). Ich suche nach Möglichkeiten, diese Konzepte zu veranschaulichen, um meinen Schülern zu helfen, sie zu verstehen (und sie nicht nur für verschiedene Verteilungen zu berechnen, was im Unterricht häufig gemacht wird). Irgendwelche Vorschläge …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.