Im Bayes'schen Theorem ist
Die Maximum-Likelihood-Schätzung versucht, zu maximieren , oder? Wenn ja, bin ich sehr verwirrt, weil beide Zufallsvariablen sind, oder? Zur Maximierung der ist, um herauszufinden , die y ? Ein weiteres Problem: Wenn diese beiden Zufallsvariablen unabhängig sind, ist p ( x | y ) nur p ( x ) , oder? Dann maximiere p ( x | y soll maximieren.
Oder vielleicht ist eine Funktion einiger Parameter , dh , und MLE versucht, das zu finden, das p ( x | y ) maximieren kann ? Oder sogar das y tatsächlich die Parameter des Modells ist, nicht Zufallsvariable, um die Wahrscheinlichkeit zu maximieren ist es, die finden y ?
AKTUALISIEREN
Ich bin ein Anfänger im maschinellen Lernen, und dieses Problem ist eine Verwirrung von dem, was ich aus einem Tutorial zum maschinellen Lernen gelesen habe. Hier ist es gegeben, ein beobachteter Datensatz sind die Zielwerte { y 1 , y 2 , . . . , y n } , und ich versuche, ein Modell über diesen Datensatz anzupassen, also gehe ich davon aus, dass bei gegebenem x , eine Form der Verteilung hat genannt W durch parametrisiert θ , das heißt , und ich nehme an, dass dies diehintere Wahrscheinlichkeit ist, richtig?
Um nun den Wert von zu schätzen , verwende ich MLE. OK, hier kommt mein Problem, ich denke die Wahrscheinlichkeit ist p ( x | y ; θ ) , oder? Das Maximieren der Wahrscheinlichkeit bedeutet, dass ich das richtige θ und y auswählen sollte ?
Wenn mein Verständnis der Wahrscheinlichkeit falsch ist, zeigen Sie mir bitte den richtigen Weg.