Wenn man sich für Statistik interessiert, wird die Dichotomie "Frequentist" vs. "Bayesian" bald alltäglich (und wer hat Nate Silvers " Das Signal und das Rauschen " überhaupt nicht gelesen ?). In Vorträgen und Einführungskursen ist die Sichtweise überwiegend häufig ( MLE- , Werte), aber es bleibt in der Regel nur …
Ich verwende Caret, um eine kreuzvalidierte zufällige Gesamtstruktur über ein Dataset auszuführen. Die Y-Variable ist ein Faktor. In meinem Datensatz befinden sich keine NaNs, Infs oder NAs. Allerdings bekomme ich, wenn ich den zufälligen Wald laufen lasse Error in randomForest.default(m, y, ...) : NA/NaN/Inf in foreign function call (arg 1) …
Der Bayes-Satz P(model|data)=P(model)×P(data|model)P(data)P(model|data)=P(model)×P(data|model)P(data) P(\textrm{model}|\textrm{data}) = \frac{P(\textrm{model}) \times P(\textrm{data}|\textrm{model})}{P(\textrm{data})} Das ist alles in Ordnung. Aber ich habe irgendwo gelesen: Grundsätzlich ist P (Daten) nichts anderes als eine Normalisierungskonstante, dh eine Konstante, die die posteriore Dichte zu eins integriert. Wir wissen, dass und . 0 ≤ P ( Daten | Modell ) …
Der Artikel The Odds, Continuually Updated erwähnt die Geschichte eines Fischers auf Long Island, der buchstäblich Bayesian Statistics sein Leben verdankt. Hier ist die kurze Version: Mitten in der Nacht sitzen zwei Fischer auf einem Boot. Während einer schläft, fällt der andere in den Ozean. Das Boot fährt die ganze …
Ich denke, eine gute Möglichkeit, sich an die Formel zu erinnern, besteht darin, sich die Formel folgendermaßen vorzustellen: Die Wahrscheinlichkeit, dass ein Ereignis A ein bestimmtes Ergebnis hat, wenn das Ergebnis eines unabhängigen Ereignisses B gegeben ist = die Wahrscheinlichkeit, dass beide Ergebnisse gleichzeitig auftreten / was auch immer wir …
Ich verstehe nicht, wie diese Gleichung abgeleitet wurde. P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|ich′)P(M2|ich′)P(I|M_{1}\cap M_{2}) \leq \frac{P(I)}{P(I')}\cdot \frac{P(M_{1}|I)P(M_{2}|I)}{P(M_{1}|I')P(M_{2}|I')} Diese Gleichung stammt aus der Arbeit "Trial by Probability", in der der Fall von OJ Simpson als Beispielproblem angegeben wurde. Der Angeklagte wird wegen Doppelmordes vor Gericht gestellt und es werden zwei Beweise gegen ihn vorgelegt. ist …
Welche Beziehung besteht zwischen der linearen Diskriminanzanalyse und der Bayes-Regel? Ich verstehe, dass LDA bei der Klassifizierung verwendet wird, indem versucht wird, das Verhältnis zwischen Gruppenvarianz und Gruppenvarianz zu minimieren, aber ich weiß nicht, wie Bayes-Regeln darin verwendet werden.
Dies ist eher eine Frage der Wissenschaftsgeschichte, aber ich hoffe, dass sie hier zum Thema gehört. Ich habe gelesen, dass es Thomas Bayes nur gelungen ist, den Satz von Bayes für den Sonderfall eines Uniformprior zu entdecken, und selbst dann hatte er anscheinend damit zu kämpfen. In Anbetracht dessen, wie …
Es wird als idealer Fall angesehen, in dem die den Kategorien zugrunde liegende Wahrscheinlichkeitsstruktur perfekt bekannt ist. Warum erzielen wir mit dem Bayes-Klassifikator die beste Leistung, die erzielt werden kann? Was ist der formale Beweis / die Erklärung dafür? Da wir immer den Bayes-Klassifikator als Benchmark verwenden, um die Leistung …
Ich habe Wagenmakers (2007) gelesen. Eine praktische Lösung für das allgegenwärtige Problem der p-Werte . Ich bin fasziniert von der Umwandlung von BIC-Werten in Bayes-Faktoren und -Wahrscheinlichkeiten. Bisher habe ich jedoch keine guten Kenntnisse darüber, was genau eine Einheiteninformation zuvor ist. Ich wäre dankbar für eine Erklärung mit Bildern oder …
Ich versuche, mich mit dem Ergebnis des Bayes-Theorems zu beschäftigen, das auf das klassische Mammogramm-Beispiel angewendet wurde, wobei die Drehung des Mammogramms perfekt ist. Das ist, Inzidenz von Krebs: .01.01.01 Wahrscheinlichkeit einer positiven Mammographie bei Krebs des Patienten: 111 Wahrscheinlichkeit einer positiven Mammographie, wenn der Patient keinen Krebs hat: .01.01.01 …
Ich arbeite seit Jahren mit Fuzzy-Logik (FL) und weiß, dass es Unterschiede zwischen FL und Wahrscheinlichkeit gibt, insbesondere in Bezug auf den Umgang von FL mit Unsicherheit. Ich möchte jedoch fragen, welche weiteren Unterschiede zwischen FL und Wahrscheinlichkeit bestehen. Mit anderen Worten, wenn ich mich mit Wahrscheinlichkeiten befasse (Informationen zusammenführen, …
Ein Bayes-Faktor wird beim Bayes'schen Testen der Hypothese und der Bayes'schen Modellauswahl durch das Verhältnis zweier Grenzwahrscheinlichkeiten definiert: bei gegebener iid-Stichprobe und entsprechenden Abtastdichten und mit den entsprechenden Prioritäten und ist der Bayes-Faktor für den Vergleich der beiden Modelle Ein Buch, das ich gerade rezensiere, hat die seltsame Aussage, dass …
Der L2-Verlust ist zusammen mit dem L0- und L1-Verlust drei eine sehr häufige "Standard" -Verlustfunktion, die verwendet wird, wenn ein Posterior durch den minimalen posterioren erwarteten Verlust zusammengefasst wird. Ein Grund dafür ist vielleicht, dass sie relativ einfach zu berechnen sind (zumindest für 1d-Verteilungen), L0 ergibt den Modus, L1 im …
Aus mathematischer Sicht ist der Satz von Bayes für mich vollkommen sinnvoll (dh ableiten und beweisen), aber ich weiß nicht, ob es ein schönes geometrisches oder grafisches Argument gibt, das gezeigt werden kann, um den Satz von Bayes zu erklären. Ich habe versucht, nach einer Antwort zu suchen, und überraschenderweise …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.