"Kleinste Quadrate" bedeutet, dass die Gesamtlösung die Summe der Quadrate der Fehler minimiert, die in den Ergebnissen jeder einzelnen Gleichung auftreten. Die wichtigste Anwendung liegt in der Datenanpassung. Die beste Anpassung im Sinne der kleinsten Quadrate minimiert die Summe der quadratischen Residuen, wobei ein Residuum die Differenz zwischen einem beobachteten Wert und dem von einem Modell bereitgestellten angepassten Wert ist. Probleme mit den kleinsten Quadraten fallen in zwei Kategorien: lineare oder gewöhnliche kleinste Quadrate und nicht-quadratische Residuen. lineare kleinste Quadrate, abhängig davon, ob die Residuen in allen Unbekannten linear sind oder nicht.
Die Bayes'sche lineare Regression ist ein Ansatz zur linearen Regression, bei dem die statistische Analyse im Kontext der Bayes'schen Inferenz durchgeführt wird. Wenn das Regressionsmodell Fehler aufweist, die normalverteilt sind, und wenn eine bestimmte Form der vorherigen Verteilung angenommen wird, sind explizite Ergebnisse für die posterioren Wahrscheinlichkeitsverteilungen der Modellparameter verfügbar.
In einigen Kontexten kann eine regulierte Version der Lösung der kleinsten Quadrate vorzuziehen sein. Die Tikhonov-Regularisierung (oder Ridge-Regression) fügt eine Einschränkung hinzu, dass , die L2-Norm des Parametervektors, nicht größer als ein gegebener Wert ist. In einem Bayes'schen Kontext entspricht dies der Platzierung eines normalverteilten Nullmittelwerts vor dem Parametervektor.∥ β∥2
Eine alternative regulierte Version der kleinsten Quadrate ist Lasso (Operator für die kleinste absolute Schrumpfung und Auswahl), der die Bedingung verwendet, dass , die L1-Norm des Parametervektors, nicht größer als ein gegebener Wert ist . In einem Bayes'schen Kontext entspricht dies dem Platzieren einer Laplace-Prioritätsverteilung mit dem Mittelwert Null auf dem Parametervektor.∥ β∥1
Einer der Hauptunterschiede zwischen Lasso und Ridge-Regression besteht darin, dass bei Ridge-Regression mit zunehmender Strafe alle Parameter reduziert werden, während sie immer noch ungleich Null bleiben. Bei Lasso führt eine Erhöhung der Strafe dazu, dass immer mehr Parameter auftreten auf Null gefahren.
In diesem Artikel wird das reguläre Lasso mit dem Bayes'schen Lasso und der Gratregression verglichen (siehe Abbildung 1 ).