Ich habe das Material zu XGBoost gelesen. Es scheint, dass diese Methode keine variable Skalierung erfordert, da sie auf Bäumen basiert und diese komplexe Nichtlinearitätsmuster-Interaktionen erfassen kann. Und es kann sowohl numerische als auch kategoriale Variablen verarbeiten, und es scheint auch, dass redundante Variablen diese Methode nicht zu sehr beeinflussen.
Normalerweise können Sie bei der Vorhersagemodellierung eine Auswahl unter allen vorhandenen Funktionen treffen und aus den vorhandenen Funktionen auch einige neue Funktionen erstellen. Wenn Sie also eine Teilmenge von Funktionen auswählen, denken Sie, dass Ihre Funktionen redundant sind. Wenn Sie aus dem aktuellen Funktionsumfang einige neue Funktionen erstellen, können Sie einige funktionale Änderungen an Ihren aktuellen Funktionen vornehmen. Dann sollten diese beiden Punkte in XGBoost behandelt werden. Bedeutet dies dann, dass Sie zur Verwendung von XGBoost diese Tuning-Parameter nur mit Bedacht auswählen müssen? Welchen Wert hat Feature Engineering mit XGBoost?