Fragen:
- Was ist der Unterschied zwischen Boosted Regression Tree (BRT) und Generalized Boosted Models (GBM)? Können sie austauschbar verwendet werden? Ist das eine eine bestimmte Form des anderen?
- Warum verwendete Ridgeway den Ausdruck "Generalized Boosted Regression Models" (GBM), um zu beschreiben, was Friedman zuvor als "Gradient Boosting Machine" (GBM) vorgeschlagen hatte? Diese beiden Akronyme sind identisch, beschreiben dasselbe, leiten sich jedoch aus unterschiedlichen Phrasen ab.
Hintergrund:
Ich habe Probleme festzustellen, wie sich die Begriffe BRT und GBM unterscheiden. Soweit ich weiß, sind beide Begriffe zur Beschreibung von Klassifizierungs- und Regressionsbäumen, deren Stochastizität durch eine Art Boosting (z. B. Absacken, Bootstrapping, Kreuzvalidierung) berücksichtigt wird. Soweit ich weiß, wurde der Begriff GBM erstmals von Friedman (2001) in seiner Arbeit "Gierige Funktionsnäherung: eine Gradientenverstärkungsmaschine" geprägt. Ridgeway implementierte dann das von Friedman 2006 in seinem Paket "Generalized Boosted Regression Models" (GBM) beschriebene Verfahren. In meinem Bereich (Ökologie) haben Elith et al. (2008) war der erste, der Ridgeways gbm
Paket zur Modellierung der Artenverteilung demonstrierte . Die Autoren von Elith et al. Verwenden Sie den Begriff "Boosted Regression Tree" (BRT), um Friedman und Ridgeway zu beschreiben.
Ich bin verwirrt, ob diese Begriffe austauschbar verwendet werden können. Es ist etwas verwirrend, dass ein Autor dasselbe Akronym (aus einem anderen Ausdruck) verwendet, um dieselbe Theorie zu beschreiben, die ein vorheriger Autor vorgeschlagen hat. Es ist auch verwirrend, dass der dritte Autor einen völlig anderen Begriff verwendet hat, als er diese Theorie in ökologischen Begriffen beschrieb.
Das Beste, was ich mir einfallen lassen kann, ist, dass BRT eine bestimmte Form von GBM ist, bei der die Verteilung binomisch ist, aber ich bin mir nicht sicher.
Elith et al. Definieren Sie Boosted-Regressionsbäume wie folgt… "Boosted-Regressionsbäume kombinieren die Stärken zweier Algorithmen: Regressionsbäume (Modelle, die eine Antwort auf ihre Prädiktoren durch rekursive binäre Teilungen in Beziehung setzen) und Boosting (eine adaptive Methode zum Kombinieren vieler einfacher Modelle, um eine verbesserte Vorhersageleistung zu erzielen ). Das endgültige BRT-Modell kann als additives Regressionsmodell verstanden werden, bei dem einzelne Begriffe einfache Bäume sind, die vorwärts und stufenweise angepasst werden "(Elith et al. 2008).