Ich versuche die Unterschiede zwischen GBM und Adaboost zu verstehen.
Folgendes habe ich bisher verstanden:
- Es gibt beide Boosting-Algorithmen, die aus den Fehlern des Vorgängermodells lernen und schließlich eine gewichtete Summe der Modelle bilden.
- GBM und Adaboost sind sich bis auf ihre Verlustfunktionen ziemlich ähnlich.
Trotzdem fällt es mir schwer, Unterschiede zu erkennen. Kann mir jemand intuitive Erklärungen geben?