Bei Regressionsproblemen habe ich gesehen, dass Leute "Bestimmungskoeffizienten" (alias R-Quadrat) verwenden, um die Modellauswahl durchzuführen, z. B. um den geeigneten Strafkoeffizienten für die Regularisierung zu finden.
Es ist jedoch auch üblich, "mittlere Fehlerquadrat" oder "mittlere Fehlerquadratwurzel" als Maß für die Regressionsgenauigkeit zu verwenden.
Was ist der Hauptunterschied zwischen diesen beiden? Könnten sie austauschbar für "Regularisierungs" - und "Regressions" -Aufgaben verwendet werden? Und was sind die Hauptanwendungen in der Praxis, z. B. beim maschinellen Lernen und bei Data Mining-Aufgaben?