Ich gehe die Videos in Andrew Ngs kostenlosem Online-Kurs für maschinelles Lernen in Stanford durch. Er beschreibt Gradient Descent als einen Algorithmus zum Lösen linearer Regression und zum Ausführen von Schreibfunktionen in Octave. Vermutlich könnte ich diese Funktionen in R umschreiben, aber meine Frage ist, gibt mir die Funktion lm () nicht bereits die Ausgabe einer linearen Regression? Warum sollte ich meine eigene Gradientenabstiegsfunktion schreiben wollen? Gibt es einen Vorteil oder ist es nur eine Lernübung? Führt lm () einen Gefälleabstieg durch?