Ich frage mich, ob die Maximum-Likelihood-Schätzung jemals in der Statistik verwendet wurde.
Bestimmt! Eigentlich ziemlich viel - aber nicht immer.
Wir lernen das Konzept, aber ich frage mich, wann es tatsächlich verwendet wird.
Wenn Menschen ein parametrisches Verteilungsmodell haben, entscheiden sie sich ziemlich oft für die Maximalwahrscheinlichkeitsschätzung. Wenn das Modell korrekt ist, gibt es eine Reihe praktischer Eigenschaften von Maximum-Likelihood-Schätzern.
Zum Beispiel ist die Verwendung von verallgemeinerten linearen Modellen ziemlich weit verbreitet, und in diesem Fall werden die Parameter, die den Mittelwert beschreiben, durch die maximale Wahrscheinlichkeit geschätzt.
Es kann vorkommen, dass einige Parameter nach der maximalen Wahrscheinlichkeit geschätzt werden und andere nicht. Betrachten Sie beispielsweise einen überdispersen Poisson-GLM - der Dispersionsparameter wird nicht mit maximaler Wahrscheinlichkeit geschätzt, da der MLE in diesem Fall nicht nützlich ist.
Wenn wir die Verteilung der Daten annehmen, finden wir zwei Parameter
Nun, manchmal haben Sie vielleicht zwei, aber manchmal haben Sie einen Parameter, manchmal drei oder vier oder mehr.
eine für den Mittelwert und eine für die Varianz,
Denken Sie vielleicht an ein bestimmtes Modell? Dies ist nicht immer der Fall. Betrachten Sie die Schätzung des Parameters einer Exponentialverteilung oder einer Poisson-Verteilung oder einer Binomialverteilung. In jedem dieser Fälle gibt es einen Parameter und die Varianz ist eine Funktion des Parameters, der den Mittelwert beschreibt.
Oder betrachten Sie eine verallgemeinerte Gammaverteilung , die drei Parameter hat. Oder eine Beta-Distribution mit vier Parametern , die (vielleicht nicht überraschend) vier Parameter enthält. Beachten Sie auch, dass (abhängig von der jeweiligen Parametrisierung) der Mittelwert oder die Varianz oder beide möglicherweise nicht durch einen einzelnen Parameter, sondern durch Funktionen mehrerer von ihnen dargestellt werden.
Zum Beispiel die Gammaverteilung, für die es drei Parametrisierungen gibt, die ziemlich häufig verwendet werden - die beiden häufigsten haben sowohl den Mittelwert als auch die Varianz als Funktionen von zwei Parametern.
Typischerweise kann in einem Regressionsmodell oder einem GLM oder einem Überlebensmodell (unter vielen anderen Modelltypen) das Modell von mehreren Prädiktoren abhängen, wobei in diesem Fall die mit jeder Beobachtung unter dem Modell verbundene Verteilung einen eigenen Parameter haben kann (oder) sogar mehrere Parameter), die sich auf viele Prädiktorvariablen beziehen ("unabhängige Variablen").