Es gibt IMHO keine formalen Unterschiede, die maschinelles Lernen und Statistik auf der grundlegenden Ebene der Anpassung von Modellen an Daten unterscheiden. Es kann kulturelle Unterschiede bei der Auswahl von Modellen, den Zielen der Anpassung von Modellen an Daten und in gewissem Umfang bei der Interpretation geben.
In den typischen Beispielen, an die ich denken kann, haben wir immer
MiθiMi
Mi
Was als statistische Modellauswahl der alten Schule bezeichnet werden könnte, basiert auf statistischen Tests, die möglicherweise mit schrittweisen Auswahlstrategien kombiniert werden, wohingegen sich die Modellauswahl des maschinellen Lernens in der Regel auf den erwarteten Generalisierungsfehler konzentriert, der häufig durch Kreuzvalidierung geschätzt wird. Die gegenwärtigen Entwicklungen und das Verständnis der Modellauswahl scheinen sich jedoch einer allgemeineren Grundlage anzunähern , siehe beispielsweise Modellauswahl und Modellmittelung .
Rückschluss auf die Kausalität von Modellen
Der springende Punkt ist, wie wir ein Modell interpretieren können. Wenn die erhaltenen Daten aus einem sorgfältig ausgearbeiteten Experiment stammen und das Modell angemessen ist, ist es plausibel, dass wir den Effekt einer Änderung einer Variablen im Modell als kausalen Effekt interpretieren können, und wenn wir das Experiment wiederholen und auf diese bestimmte Variable eingreifen Wir können damit rechnen, den geschätzten Effekt zu beobachten. Wenn die Daten jedoch beobachtend sind, können wir nicht erwarten, dass geschätzte Effekte im Modell beobachtbaren Interventionseffekten entsprechen. Dies erfordert zusätzliche Annahmen, unabhängig davon, ob es sich bei dem Modell um ein "maschinelles Lernmodell" oder ein "klassisches statistisches Modell" handelt.
Es kann sein, dass Personen, die in der Verwendung klassischer statistischer Modelle mit Schwerpunkt auf univariaten Parameterschätzungen und Effektgrößeninterpretationen geschult sind, den Eindruck haben, dass eine kausale Interpretation in diesem Rahmen sinnvoller ist als in einem Rahmen für maschinelles Lernen. Ich würde sagen, dass es nicht ist.
Der Bereich der kausalen Inferenz in der Statistik beseitigt das Problem nicht wirklich, macht jedoch die Annahmen deutlich, auf denen kausale Schlussfolgerungen beruhen. Sie werden als nicht testbare Annahmen bezeichnet . Das Papier Kausaler Rückschluss in der Statistik: Ein Überblick von Judea Pearl ist ein gutes Papier zum Lesen. Ein wesentlicher Beitrag der kausalen Folgerung ist die Sammlung von Methoden zur Abschätzung der kausalen Auswirkungen unter Annahmen, bei denen tatsächlich nicht beobachtete Störfaktoren vorliegen, was ansonsten ein wesentliches Problem darstellt. Siehe Abschnitt 3.3 im Pearl Paper oben. Ein ausführlicheres Beispiel findet sich in der Arbeit Marginal Structural Models and Causal Inference in Epidemiology .
Es ist fraglich, ob die nicht testbaren Annahmen zutreffen. Sie sind gerade deshalb nicht testbar, weil wir sie anhand der Daten nicht testen können. Um die Annahmen zu rechtfertigen, sind andere Argumente erforderlich.
Als ein Beispiel dafür, wo sich maschinelles Lernen und kausale Inferenz treffen, nutzen die Ideen der gezielten Maximum-Likelihood-Schätzung, wie sie in Gezieltes Maximum-Likelihood-Lernen von Mark van der Laan und Daniel Rubin vorgestellt werden, typischerweise Techniken des maschinellen Lernens für eine nicht-parametrische Schätzung, gefolgt von dem "Targeting" "auf einen interessierenden Parameter zu. Letzteres könnte durchaus ein Parameter mit kausaler Interpretation sein. Die Idee in Super Learnerist, sich stark auf maschinelles Lernen zu stützen, um interessierende Parameter abzuschätzen. Es ist ein wichtiger Punkt von Mark van der Laan (persönliche Mitteilung), dass klassische, einfache und "interpretierbare" statistische Modelle oft falsch sind, was zu voreingenommenen Schätzern und einer zu optimistischen Einschätzung der Unsicherheit der Schätzungen führt.