Bedingte Wahrscheinlichkeiten - sind sie einzigartig für den Bayesianismus?


10

Ich frage mich, ob bedingte Wahrscheinlichkeiten nur im Bayesianismus vorkommen oder ob sie eher ein allgemeines Konzept sind, das von mehreren Denkschulen unter Statistikern / Wahrscheinlichkeitsleuten geteilt wird.

Ich gehe davon aus, dass dies der Fall ist, da ich davon ausgehe, dass niemand Dies ist logisch, daher denke ich, dass Frequentisten zumindest theoretisch zustimmen würden, während sie vor Bayesian warnen Schlußfolgerung eher aus praktischen Gründen und nicht wegen bedingter Wahrscheinlichkeiten.p(A,B)=p(A|B)p(B)


1
"Bayesian" und "Frequentist" beschreiben unterschiedliche Ansätze zur Lösung von Problemen, nicht unterschiedliche zugrunde liegende Theorien. Ich habe eine Weile gebraucht, um das zu bekommen. Hier ist ein Beispiel .
user541686

6
Ich würde hinzufügen, dass wohl alle Wahrscheinlichkeiten jeglicher Art an Bedingungen geknüpft sind; Es geht nur darum, ob die Bedingungen explizit, notational oder konzeptionell sind.
Nick Cox

Geht es nicht einfach darum, dass sich die Elemente eines Ereignis-Probenraums entweder gegenseitig ausschließen und disjunkt (unabhängig) oder auf andere Weise gemeinsam (abhängig) sind? Leitet sich die bedingte Wahrscheinlichkeit nicht von letzterer ab? Daher ist der Bayesianismus nur der Sonderfall der Anwendung von A-priori-Wissen , um die Lösung eines Problems abzuleiten.
AsymLabs

Der Begriff "Wahrscheinlichkeit" ist im häufigeren Gebrauch restriktiver als im Bayersianischen, daher gibt es Fälle, in denen p (A | B) und p (B) gültige häufig auftretende Wahrscheinlichkeiten sind, p (A, B) jedoch nicht.
Akkumulation

Antworten:


7

Um sich auf die anderen und vollkommen angemessenen Antworten zu stützen, gibt es in linearen und verallgemeinerten linearen Modellen zahlreiche Beispiele für bedingte Wahrscheinlichkeitsmodelle, da die Definition solcher Modelle von den Regressoren oder Kovariaten abhängig ist:

Y|Xf(y;g(XTβ),σ)

Und der Begriff der bedingten Wahrscheinlichkeitsverteilungen wird in der Maßtheorie ohne Bezug zur Statistik und noch weniger zum "Bayesianismus" definiert. Zum Beispiel baute Rényi eine Wahrscheinlichkeitstheorie aus bedingten Versionen auf. Beachten Sie auch, dass sich die Konditionierung in der formalen Maßtheorie eher auf ein Feld als auf ein Ereignis bezieht . Die bedingte Erwartung ist dann eine -messbare Funktion, so dass für alle messbare Funktionen . (Wie das Konzept der Martingale zeigtS E [ X | S ] S E S { [ X - E [ X | S ] Z } = 0 S Z.σS E[X|S]S

ES{[XE[X|S]Z}=0
SZ.)

21

Wie bei jeder Wahrscheinlichkeitstheorie hat die bedingte Wahrscheinlichkeit nichts mit Bayes'schen vs. frequentistischen Statistiken zu tun. Sogar der Satz von Bayes ist nicht "Bayesian", sondern ein allgemeiner Satz über die Wahrscheinlichkeit, z. B. kann er verwendet werden, um Wahrscheinlichkeiten für die Basisrate ohne Prioritäten oder subjektive Bayes'sche Interpretation für die Wahrscheinlichkeit zu korrigieren .

Wenn Sie fragen: "Wie hoch ist die Wahrscheinlichkeit, dass Sie den Job eines Datenbankingenieurs erhalten, wenn Sie weiblich sind?" Oder "Wie hoch ist die Wahrscheinlichkeit, dass Sie HIV haben, wenn der Western-Blot-Test positiv war?", Fragen Sie nach der Bedingung Wahrscheinlichkeiten. Logistische Regressionsmodelle bedingte Wahrscheinlichkeit usw.

Siehe auch Gibt es eine * mathematische * Grundlage für die Debatte zwischen Bayes und Frequentisten? und Bayesian vs frequentistische Interpretationen der Wahrscheinlichkeit


2
Könnten wir ein Beispiel mit weniger Hot-Buttons verwenden? "Die Wahrscheinlichkeit, auf einen Ingenieur zu stoßen, der weniger als 5'6" beträgt "
JFA

3
@JFA Ich sehe kein Problem mit dem Beispiel, zumindest gibt es dir einen Gedanken, ob Konditionierung hier Sinn macht.
Tim

10

Frequentistische Methoden verwenden auch bedingte Wahrscheinlichkeiten. Ein p-Wert ist eine bedingte Wahrscheinlichkeit. Das einzige Problem ist, dass es sich nicht um eine sehr nützliche oder intuitive bedingte Wahrscheinlichkeit handelt. Wenn wir einen Korrelationskoeffizienten berechnen und unsere Maschine „p = 0,03“ ausspuckt, heißt es wirklich:

p(D|H0)=.03

DH0

Unter der Bedingung der Nullhypothese beträgt die Wahrscheinlichkeit, dass wir unsere Daten oder extremere Daten beobachten, 0,03. Das ist eine bedingte Wahrscheinlichkeit, die im Satz von Bayes völlig fehlt. Es ist meiner Meinung nach normalerweise nicht so nützlich (es sei denn, Sie versuchen wirklich, diese Wahrscheinlichkeit aus irgendeinem Grund zu erreichen).


7
Ich denke, "nicht intuitiv" ist eine faire Kritik, aber "nicht nützlich" ist ein bisschen weit. Die Kritik an p-Werten ist alle gut und schön, kann aber von sorgfältigen Wissenschaftlern gut genutzt werden.
Matthew Drury

2
@MatthewDrury das ist fair; Ich war zu stark mit meiner Sprache. Ich habe einen Publikationsdatensatz mit Schlussfolgerungen aus p-Werten, also muss ich wohl zustimmen. Man könnte jedoch argumentieren, dass die p-Wert-Inferenz nur insofern nützlich ist, als sie sich der Bayes'schen posterioren Abdeckung von Null annähert, nicht in der Inferenz an sich.
Mark White

4
Yah, ich stimme zu, dass dort ein vernünftiges Argument vorgebracht werden muss. Ich möchte nur, dass wir bei unseren Antworten auf unsere Ablehnung achten. Es ist wichtig, sich zu qualifizieren.
Matthew Drury

@MatthewDrury +1 stimmte zu und guter Punkt
Mark White

3

Ich denke nicht, dass es fair ist zu sagen, dass bedingte Wahrscheinlichkeiten nur im Bayesianismus vorkommen.

(Experten für Messtheorie, bitte zögern Sie nicht, mich zu korrigieren.)

ΩΩΩ

Betrachten Sie beispielsweise einige fiktive Daten, die in einer Umfrage gesammelt wurden (Hinweis: Wir haben keine "vorherigen" Informationen):

MännlichWeiblichBesitzt einen Fernseher7572Besitzt keinen Fernseher2528
ΩP.::EIN[0,1]]EINσΩ

EINEIN

P.(EIN)=|EIN||Ω|
||

EINB.

|EINB.||EIN|
EINΩ'=EIN
|EINB.||EIN|=|EINB.|/.|Ω||EIN|/.|Ω|=P.(EINB.)P.(EIN)

1

Ich bin etwas spät dran für diese bestimmte Party, aber ich dachte mir, ich würde den anderen ausgezeichneten Antworten hier eine philosophischere Antwort hinzufügen, falls es für zukünftige Suchende hilfreich sein könnte.

fN.(EINE.)EINE.N.fN.(E.)E.N.

p(EINE.): =limN.fN.(EINE.)N.
p(E.): =limN.fN.(E.)N.
p(EIN|E.)E.EIN
p(EIN|E.): =limN.fN.(EINE.)fN.(E.)
p(E.)
p(EIN|E.)=limN.fN.(EINE.)/.N.fN.(E.)/.N.=limN.fN.(EINE.)/.N.limN.fN.(E.)/.N.=p(EINE.)p(E.).

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.