Wie viele Features sollen mit Random Forests getestet werden?


13

Auf der Wikipedia-Seite, die "Die Elemente des statistischen Lernens" zitiert, heißt es:

Für ein Klassifizierungsproblem mit Merkmalen gilt in der Regel ⌊ p -Funktionen werden in jeder Aufteilung verwendet.p

Ich verstehe, dass dies eine ziemlich gut fundierte Vermutung ist und wahrscheinlich durch empirische Beweise bestätigt wurde, aber gibt es andere Gründe, warum man die Quadratwurzel ziehen würde? Geschieht dort ein statistisches Phänomen?

Hilft dies irgendwie dabei, die Varianz der Fehler zu verringern?

Gilt das auch für Regression und Klassifikation?

Antworten:


16

Ich denke, in der Originalarbeit schlagen sie vor, ) zu verwenden, aber so oder so lautet die Idee wie folgt:Log2(N+1

Die Anzahl der zufällig ausgewählten Merkmale kann den Generalisierungsfehler auf zwei Arten beeinflussen: Die Auswahl vieler Merkmale erhöht die Stärke der einzelnen Bäume, während die Verringerung der Anzahl der Merkmale zu einer geringeren Korrelation zwischen den Bäumen führt und die Stärke des Gesamtwaldes erhöht.

Interessant ist, dass die Autoren von Random Forests (pdf) einen empirischen Unterschied zwischen Klassifikation und Regression feststellen:

Ein interessanter Unterschied zwischen Regression und Klassifikation besteht darin, dass die Korrelation mit zunehmender Anzahl verwendeter Merkmale recht langsam zunimmt.

N/3N

NLogN

Der Zwischenbereich ist normalerweise groß. In diesem Bereich nimmt die Korrelation mit zunehmender Anzahl von Merkmalen zu, aber PE * (Baum) kompensiert durch Verringern.

(PE * ist der Generalisierungsfehler)

Wie sie in Elementen des statistischen Lernens sagen:

In der Praxis hängen die besten Werte für diese Parameter vom Problem ab und sollten als Optimierungsparameter behandelt werden.

Eine Sache, von der Ihr Problem abhängen kann, ist die Anzahl der kategorialen Variablen. Wenn Sie viele kategoriale Variablen haben, die als Dummy-Variablen codiert sind, ist es normalerweise sinnvoll, den Parameter zu erhöhen. Nochmals aus dem Random Forests-Artikel:

ichnt(lÖG2M+1)


Danke, das ist eine sehr nützliche Antwort. In der Tat dachte ich, dass es etwas mit der Stärke eines jeden Baumes im Vergleich zur Stärke des Waldes als Ganzes zu tun hat. Und in der Tat sehr interessant, dass es einen solchen Unterschied zwischen Regression und Klassifikation gibt. Vielen Dank, dass Sie das Originalpapier verlinkt haben. Ich habe versucht, solche Papiere für viele Techniken zu sammeln.
Valentin Calomme
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.