Ich habe verschiedene (scheinbar) widersprüchliche Aussagen darüber gelesen, ob AdaBoost (oder andere Boosting-Techniken) im Vergleich zu anderen Lernmethoden weniger oder anfälliger für Überanpassungen sind.
Gibt es gute Gründe, den einen oder anderen zu glauben? Wenn es darauf ankommt, wovon hängt es ab? Was sind die Gründe, warum AdaBoost weniger / mehr zur Überanpassung neigt?
caret
zu sichern , aber Sie können das Paket zur Kreuzvalidierung von Adaboost verwenden, und ich habe festgestellt, dass es in der Regel gut verallgemeinert ist.