Ich versuche zu verstehen, wie XGBoost funktioniert. Ich verstehe bereits, wie gradientenverstärkte Bäume auf Python Sklearn funktionieren. Was mir nicht klar ist, ist, ob XGBoost auf die gleiche Weise funktioniert, aber schneller, oder ob es grundlegende Unterschiede zwischen ihm und der Python-Implementierung gibt.
Wenn ich diese Zeitung lese
http://learningsys.org/papers/LearningSys_2015_paper_32.pdf
Für mich sieht es so aus, als ob das Endergebnis von XGboost dasselbe ist wie in der Python-Implementierung. Der Hauptunterschied besteht jedoch darin, wie XGboost die beste Aufteilung für jeden Regressionsbaum findet.
Grundsätzlich liefert XGBoost das gleiche Ergebnis, ist jedoch schneller.
Ist das richtig oder fehlt mir noch etwas?