Was ist der Unterschied zwischen kleinsten Quadraten und linearer Regression? Ist es dasselbe?
Was ist der Unterschied zwischen kleinsten Quadraten und linearer Regression? Ist es dasselbe?
Antworten:
Die lineare Regression nimmt eine lineare Beziehung zwischen der unabhängigen und der abhängigen Variablen an. Es sagt Ihnen nicht, wie das Modell montiert ist. Der kleinste Platzbedarf ist einfach eine der Möglichkeiten. Weitere Methoden zum Trainieren eines linearen Modells finden Sie im Kommentar.
Nichtlineare kleinste Quadrate sind häufig ( https://en.wikipedia.org/wiki/Non-linear_least_squares ). Der beliebte Levenberg-Marquardt-Algorithmus löst beispielsweise Folgendes:
Es ist eine Optimierung der kleinsten Quadrate, aber das Modell ist nicht linear.
Sie sind nicht dasselbe .
Zusätzlich zur richtigen Antwort von @Student T möchte ich betonen, dass die kleinsten Quadrate eine potenzielle Verlustfunktion für ein Optimierungsproblem sind, während die lineare Regression ein Optimierungsproblem ist.
Bei einem bestimmten Datensatz wird die lineare Regression verwendet, um die bestmögliche lineare Funktion zu finden, die den Zusammenhang zwischen den Variablen erklärt.
In diesem Fall wird das "Beste" durch eine Verlustfunktion bestimmt, die die vorhergesagten Werte einer linearen Funktion mit den tatsächlichen Werten im Datensatz vergleicht. Least Squares ist eine mögliche Verlustfunktion.
Der Wikipedia-Artikel der kleinsten Quadrate zeigt auch Bilder auf der rechten Seite, die die Verwendung der kleinsten Quadrate für andere Probleme als die lineare Regression zeigen, wie z.
Das folgende GIF aus dem Wikipedia-Artikel zeigt verschiedene Polynomfunktionen, die an einen Datensatz mit kleinsten Quadraten angepasst sind. Nur einer von ihnen ist linear (Polynom von 1). Dies ist aus dem Wikipedia-Artikel zum Thema entnommen .