Für das Boosten von Algorithmen würde ich sagen, dass sie sich ziemlich gut entwickelt haben. Anfang 1995 wurde AdaBoost eingeführt und nach einiger Zeit wurde es Gradient Boosting Machine (GBM). Vor kurzem wurde um 2015 XGBoost eingeführt, das genau ist, Überanpassungen handhabt und bei mehreren Kaggle-Wettbewerben als Sieger hervorgegangen ist. Im Jahr 2017 wurde LightGBM von Microsoft eingeführt und bietet im Vergleich zu XGBoost eine deutlich kürzere Einarbeitungszeit. CatBoost wurde von Yandex auch für den Umgang mit kategorialen Funktionen eingeführt.
Random Forest wurde Anfang der 2000er Jahre eingeführt, aber hat es irgendwelche würdigen Nachfolger gegeben? Ich denke, wenn es einen besseren Absackalgorithmus als Random Forest gegeben hätte (der sich in der Praxis leicht anwenden lässt), hätte er an Orten wie Kaggle Aufmerksamkeit erregt. Warum wurde Boosten zur populäreren Ensemble-Technik, weil Sie weniger Bäume für eine optimale Vorhersage bauen können?