Basierend auf Gradient Boosting Tree vs Random Forest . GBDT und RF verwenden unterschiedliche Strategien, um Verzerrung und Varianz zu bekämpfen.
Meine Frage ist, ob ich einen Datensatz (mit Ersatz) erneut abtasten kann, um mehrere GBDT zu trainieren und ihre Vorhersagen als Endergebnis zu kombinieren.
Es ist gleichbedeutend damit, eine zufällige Gesamtstruktur mit GBDT als Basislerner zu erstellen
Die Idee ist, dass GBDT den Datensatz überanpassen kann (ähnlich wie ein vollständig wachsender Entscheidungsbaum, niedrige Abweichung, hohe Varianz). Ich hoffe, dass die Verwendung der Absacktechnik auch dieses Problem verringern kann und eine bessere Leistung erzielen möchte.
Irgendein Vorschlag?