Siehe auch eine ähnliche Frage zu stats.SE .
Bei Boosting- Algorithmen wie AdaBoost und LPBoost ist bekannt, dass die zu kombinierenden "schwachen" Lernenden nur bessere Leistungen erbringen müssen als der Zufall, um nützlich zu sein.
Die verwendeten Klassifizierer können schwach sein (dh eine erhebliche Fehlerrate aufweisen), aber solange ihre Leistung nicht zufällig ist (was zu einer Fehlerrate von 0,5 für die binäre Klassifizierung führt), verbessern sie das endgültige Modell. Sogar Klassifizierer mit einer höheren Fehlerrate als von einem Zufallsklassifizierer erwartet, sind nützlich, da sie in der endgültigen linearen Kombination von Klassifizierern negative Koeffizienten aufweisen und sich daher wie ihre Umkehrungen verhalten.
Was sind die Vorteile von schwachen Lernenden gegenüber starken Lernenden? (zB warum nicht mit "starken" Lernmethoden aufladen - sind wir anfälliger für Überanpassung?)
Gibt es eine Art "optimale" Stärke für die schwachen Lernenden? Und hängt dies mit der Anzahl der Lernenden im Ensemble zusammen?
Gibt es eine Theorie, um die Antworten auf diese Fragen zu stützen?