Ich habe kürzlich angefangen, über Maximum Likelihood Estimator und Bayes'sche Statistiken zu lesen. Ich verstehe, dass bei einem statistischen Modell , bei dem zu einem großen Parameterraum , die KL-Divergenz zwischen und ( die Wahrheit ist) Der Parameter, den wir finden möchten) wird für das minimiert, das maximiert . Unter der Annahme, dass die Ereignisse unabhängig und identisch verteilt sind, bedeutet dies eine Maximierung der gemeinsamen Wahrscheinlichkeit (Die Unabhängigkeitsannahme erlaubt es, dies mit dem Produkt der einzelnen Elemente gleichzusetzen.)
Der Bayes'sche Ansatz erklärt den vorherigen Glauben an die Verteilung von , und maximiert , was nach der Bayes-Regel der Maximierung von . Ich habe die Dinge bis zu diesem Teil verstanden. Danach wird das als "Wahrscheinlichkeit" bezeichnet und durch , das nur das Produkt der einzelnen Wahrscheinlichkeiten des ist X in der Verteilung . Bedeutet dies, dass tatsächlich , dh Wahrscheinlichkeiten gegeben, oder etwas ähnliches ?
Ich bin nicht sehr gut in Wahrscheinlichkeit und Verteilung, und ich verstehe, dass das Objekt als bedingte Wahrscheinlichkeit bezeichnet wird und das Objekt (das entspricht durch Unabhängigkeit) wird die gemeinsame Wahrscheinlichkeit genannt und es handelt sich um sehr unterschiedliche Dinge. Ich habe gesehen, dass Autoren in einigen Fällen für die gemeinsame Wahrscheinlichkeit mit maximaler Wahrscheinlichkeit verwenden. Ich bin verwirrt, warum die gemeinsame Wahrscheinlichkeit und die bedingte Wahrscheinlichkeit als gleich angesehen werden.