Als «probability» getaggte Fragen

Eine Wahrscheinlichkeit liefert eine quantitative Beschreibung des wahrscheinlichen Auftretens eines bestimmten Ereignisses.

1
Was ist die Intuition hinter austauschbaren Proben unter der Nullhypothese?
Permutationstests (auch Randomisierungstest, Re-Randomisierungstest oder exakter Test genannt) sind sehr nützlich und nützlich, wenn die zum Beispiel erforderliche Annahme einer Normalverteilung t-testnicht erfüllt ist und wenn die Transformation der Werte durch Rangfolge der Werte erfolgt Ein nicht parametrischer Test Mann-Whitney-U-testwürde dazu führen, dass mehr Informationen verloren gehen. Eine einzige Annahme, …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

1
Produkt zweier unabhängiger Zufallsvariablen
Ich habe eine Stichprobe von ca. 1000 Werten. Diese Daten werden aus dem Produkt von zwei unabhängigen Zufallsvariablen erhalten ξ∗ψξ∗ψ\xi \ast \psi . Die erste Zufallsvariable hat eine gleichmäßige Verteilung ξ∼U(0,1)ξ∼U(0,1)\xi \sim U(0,1) . Die Verteilung der zweiten Zufallsvariablen ist nicht bekannt. Wie kann ich die Verteilung der zweiten ( …

2
Kombinieren Sie Klassifikatoren, indem Sie eine Münze werfen
Ich lerne einen maschinellen Lernkurs und die Vorlesungsfolien enthalten Informationen, die dem empfohlenen Buch widersprechen. Das Problem ist folgendes: Es gibt drei Klassifikatoren: Klassifikator A, der eine bessere Leistung im unteren Bereich der Schwellenwerte bietet, Klassifikator B, der eine bessere Leistung im höheren Bereich der Schwellenwerte bietet, Klassifikator C was …


3
Wie kann ich die Wahrscheinlichkeit abschätzen, dass ein zufälliges Mitglied aus einer Population „besser“ ist als ein zufälliges Mitglied aus einer anderen Population?
Angenommen, ich habe Proben aus zwei verschiedenen Populationen. Wenn ich messe, wie lange jedes Mitglied für eine Aufgabe benötigt, kann ich den Mittelwert und die Varianz jeder Population leicht abschätzen. Wenn ich jetzt eine zufällige Paarung mit einem Individuum aus jeder Population annehme, kann ich dann die Wahrscheinlichkeit abschätzen, dass …

5
Unterschied zwischen den Begriffen "gemeinsame Verteilung" und "multivariate Verteilung"?
Ich schreibe über die Verwendung einer "gemeinsamen Wahrscheinlichkeitsverteilung" für ein Publikum, das mit größerer Wahrscheinlichkeit die "multivariate Verteilung" verstehen würde, und überlege daher, die spätere zu verwenden. Dabei möchte ich aber nicht den Sinn verlieren. Wikipedia scheint darauf hinzuweisen, dass es sich um Synonyme handelt. Sind sie? Wenn nein, warum …

4
Erwarteter Wert vs. wahrscheinlichster Wert (Modus)
Der Erwartungswert einer Verteilung f(x)f(x)f(x) ist der Mittelwert, das heißt der gewichtete Mittelwert E[x]=∫+∞−∞xf(x)dxE[x]=∫−∞+∞xf(x)dxE[x]=\int_{-\infty}^{+\infty} x \, \, f(x) dx Der wahrscheinlichste Wert ist der Modus, dh der wahrscheinlichste Wert. Erwarten wir jedoch, dass wir E[x]E[x]E[x] oft sehen werden? Zitat von hier : Wenn die Ergebnisse nicht gleich wahrscheinlich sind, muss …


2
Interpretation des Konfidenzintervalls
Hinweis: Falls es sich um ein Duplikat handelt, bitte im Voraus um Entschuldigung. Ich habe bei meiner Suche kein ähnliches q gefunden Angenommen, wir haben einen wahren Parameter p. Ein Konfidenzintervall C (X) ist ein RV, das p enthält, beispielsweise 95% der Zeit. Nehmen wir nun an, wir beobachten X …





2
Normalisierungskonstante im Bayes-Theorem
Pr(data)Pr(data)\Pr(\textrm{data}) Pr(parameters∣data)=Pr(data∣parameters)Pr(parameters)Pr(data)Pr(parameters∣data)=Pr(data∣parameters)Pr(parameters)Pr(data)\Pr(\text{parameters} \mid \text{data}) = \frac{\Pr(\textrm{data} \mid \textrm{parameters}) \Pr(\text{parameters})}{\Pr(\text{data})} wird als Normalisierungskonstante bezeichnet . Was genau ist das Was ist seine Aufgabe? Warum sieht es aus wie ? Warum hängt es nicht von den Parametern ab?Pr(data)Pr(data)\Pr(data)

5
Gibt es mehr als Bayesianismus?
Als Student der Physik habe ich die Vorlesung "Warum ich ein Bayesianer bin" vielleicht ein halbes Dutzend Mal erlebt. Es ist immer dasselbe - der Moderator erklärt selbstgefällig, dass die Bayes'sche Interpretation der von den Massen angeblich verwendeten frequentistischen Interpretation überlegen ist. Sie erwähnen Bayes-Herrschaft, Marginalisierung, Priors und Posteriors. Was …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.