Eine zufällige Gesamtstruktur ist eine Sammlung von Entscheidungsbäumen, die gebildet werden, indem nur bestimmte Merkmale zufällig ausgewählt werden, mit denen jeder Baum erstellt werden soll (und manchmal die Trainingsdaten eingesackt werden). Anscheinend lernen und verallgemeinern sie gut. Hat jemand eine MCMC-Stichprobe des Entscheidungsbaumraums erstellt oder diese mit zufälligen Wäldern verglichen? Ich weiß, dass es möglicherweise rechenintensiver ist, das MCMC auszuführen und alle abgetasteten Bäume zu speichern, aber ich interessiere mich für die theoretischen Merkmale dieses Modells, nicht für die Rechenkosten. Was ich meine ist so etwas:
- Erstellen Sie einen zufälligen Entscheidungsbaum (er würde wahrscheinlich eine schreckliche Leistung erbringen)
- Berechnen Sie die Wahrscheinlichkeit des Baums mit oder fügen Sie möglicherweise einen -Term hinzu.
- Wählen Sie einen zufälligen Schritt, um den Baum zu ändern, und wählen Sie basierend auf der Wahrscheinlichkeit .
- Speichern Sie alle N Schritte eine Kopie des aktuellen Baums
- Gehen Sie für einige große N * M-Zeiten auf 3 zurück
- Verwenden Sie die Sammlung von M gespeicherten Bäumen, um Vorhersagen zu treffen
Würde dies eine ähnliche Leistung wie Random Forests ergeben? Beachten Sie, dass wir hier im Gegensatz zu zufälligen Gesamtstrukturen zu keinem Zeitpunkt gute Daten oder Funktionen wegwerfen.