Antworten:
Die Ridge-Regression verwendet die Regularisierung mit der -Norm, während die Bayes'sche Regression ein Regressionsmodell ist, das probabilistisch definiert ist und explizite Prioritäten für die Parameter aufweist. Die Wahl der Prioritäten kann regulierend wirken, z. B. entspricht die Verwendung von Laplace-Prioritäten für Koeffizienten der -Regulierung . Sie sind nicht gleich, da die Gratregression eine Art Regressionsmodell ist und der Bayes'sche Ansatz eine allgemeine Methode zur Definition und Schätzung statistischer Modelle ist, die auf verschiedene Modelle angewendet werden können.
Das Ridge-Regressionsmodell ist definiert als
In der Bayes'schen Umgebung schätzen wir die posteriore Verteilung unter Verwendung des Bayes-Theorems
Ridge-Regression bedeutet, für die Parameter Normal Likelihood und Normal Prior anzunehmen. Nach dem Fallenlassen der Normalisierungskonstante ist die logarithmische Dichtefunktion der Normalverteilung
Jetzt können Sie sehen, dass die Maximierung der normalen Log-Wahrscheinlichkeit mit normalen Priors gleichbedeutend mit der Minimierung des quadratischen Verlusts mit Ridge-Strafe ist
Weitere Informationen zur Ridge-Regression und -Regularisierung finden Sie in den Threads: Warum wird die Ridge-Schätzung durch Hinzufügen einer Konstanten zur Diagonale besser als OLS? , und Welches Problem lösen Schrumpfungsmethoden? und wann sollte ich lasso vs ridge verwenden? und Warum wird die Gratregression "Grat" genannt, warum wird sie benötigt und was passiert, wenn ins Unendliche geht? und viele andere, die wir haben .