Ich habe in einem Buch über maschinelles Lernen gelesen, dass Parameter der linearen Regression (unter anderem) durch Gradientenabstieg geschätzt werden können, während Parameter der logistischen Regression normalerweise durch Schätzung der maximalen Wahrscheinlichkeit geschätzt werden.
Ist es möglich, einem Neuling (mir) zu erklären, warum wir unterschiedliche Methoden für die lineare / logistische Regression benötigen? aka warum nicht MLE für lineare Regression und warum nicht Gradientenabstieg für logistische Regression?