Random Forests (RFs) ist eine wettbewerbsfähige Datenmodellierungs- / Miningmethode.
Ein RF-Modell hat eine Ausgabe - die Ausgabe- / Vorhersagevariable.
Der naive Ansatz zur Modellierung mehrerer Ausgänge mit RFs besteht darin, für jede Ausgangsvariable einen RF zu erstellen. Wir haben also N unabhängige Modelle, und wenn es eine Korrelation zwischen Ausgabevariablen gibt, haben wir eine redundante / doppelte Modellstruktur. Dies könnte in der Tat sehr verschwenderisch sein. In der Regel implizieren mehr Modellvariablen auch ein stärker angepasstes Modell (weniger Verallgemeinerung). Ich bin mir nicht sicher, ob dies hier zutrifft, aber wahrscheinlich schon.
Grundsätzlich könnten wir einen HF mit mehreren Ausgängen haben. Die Vorhersagevariable ist nun ein Vektor (n-Tupel). Die Entscheidungsknoten in jedem Entscheidungsbaum teilen nun den Satz von Ziel- / Vorhersagevektoren auf der Grundlage eines Schwellenvektors auf. Ich nehme an, dass diese Schwelle eine Ebene im n-dimensionalen Raum ist und dass wir daher bestimmen können, auf welcher Seite der Schwelle Vektor Jeder der Zielvektoren ist eingeschaltet.
Der optimale Vorhersagewert für jede Seite der Entscheidungsaufteilung ist der für die Vektoren auf jeder Seite berechnete Mittelwert (Schwerpunkt).
Das Finden des optimalen Aufteilungspunkts beim Arbeiten mit einzelnen Variablen ist trivial und rechnerisch schnell / effizient. Für ein n-Tupel können wir die optimale Aufteilung nicht finden (oder sie wird zumindest mit zunehmender N rechnerisch nicht realisierbar), aber wir können möglicherweise eine nahezu optimale Aufteilung unter Verwendung einer Monte-Carlo-Methode (oder eines Hybrids aus Monte-Carlo und lokal) finden Gradiententraversal).
Würde das tatsächlich funktionieren? Das heißt, würde es nur die Trainingspaare abbilden, ohne sie zu verallgemeinern? Gibt es diese Technik bereits unter einem anderen Namen?
Vielleicht möchten Sie auch überlegen, wie sich dies auf neuronale Netze wie Restricted Boltzmann Machines (RBMs) und Deep Belief Networks auswirkt.