Einfach ausgedrückt und ohne mathematische Symbole bedeutet Prior anfängliche Überzeugungen über ein Ereignis in Bezug auf die Wahrscheinlichkeitsverteilung . Sie richten dann ein Experiment ein und erhalten einige Daten. Anschließend "aktualisieren" Sie Ihren Glauben (und damit die Wahrscheinlichkeitsverteilung) entsprechend dem Ergebnis des Experiments (der posterioren Wahrscheinlichkeitsverteilung).
Beispiel:
Angenommen, wir erhalten zwei Münzen. Aber wir wissen nicht, welche Münze gefälscht ist. Münze 1 ist unvoreingenommen (KÖPFE und SCHWÄNZE haben eine Wahrscheinlichkeit von 50%), und Münze 2 ist voreingenommen, sagen wir, wir wissen, dass sie KÖPFE mit einer Wahrscheinlichkeit von 60% ergibt. Mathematisch:
p(H|Coin1)=0.4
p(H|Coin2)=0.6
Das ist alles, was wir wissen, bevor wir ein Experiment durchführen.
Jetzt werden wir eine Münze auswählen und anhand der Informationen, die wir haben (H oder T), erraten, welche Münze wir ausgewählt haben (Münze 1 oder Münze 2).
p(Coin1)=p(Coin2)=0.5
p(Coin1|H)=p(H|Coin1)p(Coin1)p(H|Coin1)p(Coin1)+p(H|Coin2)p(Coin2)=0.4×0.50.4×0.5+0.6×0.5=0.4
p(Coin2|H)=p(H|Coin2)p(Coin2)p(H|Coin1)p(Coin1)+p(H|Coin2)p(Coin2)=0.6×0.50.4×0.5+0.6×0.5=0.6
0.5
Dies ist das Grundprinzip der Bayes'schen Inferenz und Statistik, die beim maschinellen Lernen verwendet werden.