Als «conditional-probability» getaggte Fragen

Die Wahrscheinlichkeit, dass ein Ereignis A eintritt, wenn bekannt ist, dass ein anderes Ereignis B eintritt oder eingetreten ist. Es wird üblicherweise mit P (A | B) bezeichnet.

4
Was sind die korrekten Werte für Präzision und Rückruf in Randfällen?
Präzision ist definiert als: p = true positives / (true positives + false positives) Ist es richtig, dass sich die Genauigkeit 1 nähert true positivesund false positivessich 0 nähert? Gleiche Frage zum Rückruf: r = true positives / (true positives + false negatives) Ich führe derzeit einen statistischen Test durch, …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

3
Warum ist im Bayes-Theorem ein Normalisierungsfaktor erforderlich?
Der Bayes-Satz P(model|data)=P(model)×P(data|model)P(data)P(model|data)=P(model)×P(data|model)P(data) P(\textrm{model}|\textrm{data}) = \frac{P(\textrm{model}) \times P(\textrm{data}|\textrm{model})}{P(\textrm{data})} Das ist alles in Ordnung. Aber ich habe irgendwo gelesen: Grundsätzlich ist P (Daten) nichts anderes als eine Normalisierungskonstante, dh eine Konstante, die die posteriore Dichte zu eins integriert. Wir wissen, dass und . 0 ≤ P ( Daten | Modell ) …

3
Intuition für die bedingte Erwartung von
Sei ein Wahrscheinlichkeitsraum mit einer Zufallsvariablen und einer -algebra Wir können eine neue Zufallsvariable , die die bedingte Erwartung ist.(Ω,F,μ)(Ω,F,μ)(\Omega,\mathscr{F},\mu)ξ:Ω→Rξ:Ω→R\xi:\Omega \to \mathbb{R}σσ\sigmaG⊆FG⊆F\mathscr{G}\subseteq \mathscr{F}E[ ξ| G]E[ξ|G]E[\xi|\mathscr{G}] Was genau ist die Intuition, über ? Ich verstehe die Intuition für Folgendes:E[ ξ| G]E[ξ|G]E[\xi|\mathscr{G}] (i) wobei ein Ereignis ist (mit positiver Wahrscheinlichkeit).E[ξ|A]E[ξ|A]E[\xi|A]AAA (ii) wobei …

4
Problem mit dem Nachweis der bedingten Erwartung als bester Prädiktor
Ich habe ein Problem mit dem Beweis von E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X)∈arg⁡ming(X)E[(Y−g(X))2]E(Y|X) \in \arg \min_{g(X)} E\Big[\big(Y - g(X)\big)^2\Big] die sehr wahrscheinlich ein tieferes Missverständnis der Erwartungen und bedingten Erwartungen aufdecken. Der mir bekannte Beweis lautet wie folgt (eine andere Version dieses Beweises finden Sie hier ) ===argming(X)E[(Y−g(x))2]argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]arg⁡ming(X)E[(Y−g(x))2]=arg⁡ming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]=arg⁡ming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]=arg⁡ming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]\begin{align*} &\arg \min_{g(X)} E\Big[\big(Y - g(x)\big)^2\Big]\\ = …





1
Intuitive Erklärung des Beitrags zur Summe zweier normalverteilter Zufallsvariablen
Wenn ich zwei normalverteilte unabhängige Zufallsvariablen und mit den Bedeutungen und und den Standardabweichungen und und feststelle, dass , dann gilt (vorausgesetzt, ich habe keine Fehler gemacht) die bedingte Verteilung von und denen sind auch normal mit den Mitteln und Standardabweichung XXXYYYμXμX\mu_XμYμY\mu_YσXσX\sigma_XσYσY\sigma_YX+Y=cX+Y=cX+Y=cXXXYYYcccμX|c=μX+(c−μX−μY)σ2Xσ2X+σ2YμX|c=μX+(c−μX−μY)σX2σX2+σY2\mu_{X|c} = \mu_X + (c - \mu_X - \mu_Y)\frac{ …

4
Warum ist P (A, B | C) / P (B | C) = P (A | B, C)?
Ich verstehe . Die Bedingung ist der Schnittpunkt von A und B geteilt durch die gesamte Fläche von B.P(A∩B)/P(B)=P(A|B)P(A∩B)/P(B)=P(A|B)P(A\cap B)/P(B) = P(A|B) Aber warum ist ?P(A∩B|C)/P(B|C)=P(A|B∩C)P(A∩B|C)/P(B|C)=P(A|B∩C)P(A\cap B|C)/P(B|C) = P(A|B \cap C) Kannst du etwas Intuition geben? Sollte es nicht sein: ?P(A∩B∩C)/P(B,C)=P(A|B∩C)P(A∩B∩C)/P(B,C)=P(A|B∩C)P(A\cap B \cap C)/P(B,C) = P(A|B \cap C)

4
Wie entwickelt man Intuition für bedingte Wahrscheinlichkeit?
In den Videovorträgen von Harvards Statistikkurs 110: Wahrscheinlichkeitsrechnung , die auf iTunes und YouTube zu finden sind, bin ich auf dieses Problem gestoßen . Ich habe versucht, es hier zusammenzufassen: Angenommen, wir erhalten eine zufällige Zwei-Karten-Hand aus einem Standardstapel. Wie groß ist die Wahrscheinlichkeit, dass beide Karten Asse sind, vorausgesetzt, …

3
Wenn IID sind, dann berechne , wobei
Frage Wenn IID sind, dann berechne , wobei .X1,⋯,Xn∼N(μ,1)X_1,\cdots,X_n \sim \mathcal{N}(\mu, 1)E(X1∣T)\mathbb{E}\left( X_1 \mid T \right)T=∑iXiT = \sum_i X_i Versuch : Bitte überprüfen Sie, ob das unten stehende korrekt ist. Nehmen wir an, wir nehmen die Summe dieser bedingten Erwartungen so, dass Dies bedeutet, dass jedes da IID sind.∑iE(Xi∣T)=E(∑iXi∣T)=T.\begin{align} \sum_i …


1
Bayes-Theorem mit mehreren Bedingungen
Ich verstehe nicht, wie diese Gleichung abgeleitet wurde. P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|ich′)P(M2|ich′)P(I|M_{1}\cap M_{2}) \leq \frac{P(I)}{P(I')}\cdot \frac{P(M_{1}|I)P(M_{2}|I)}{P(M_{1}|I')P(M_{2}|I')} Diese Gleichung stammt aus der Arbeit "Trial by Probability", in der der Fall von OJ Simpson als Beispielproblem angegeben wurde. Der Angeklagte wird wegen Doppelmordes vor Gericht gestellt und es werden zwei Beweise gegen ihn vorgelegt. ist …


Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.