Ich verwende derzeit XGBoost zur Risikoprognose. Es scheint in der Abteilung für binäre Klassifizierung gute Arbeit zu leisten, aber die Wahrscheinlichkeitsausgaben sind weit davon entfernt, dh eine Änderung des Werts eines Merkmals in einer Beobachtung um einen sehr kleinen Betrag kann die Wahrscheinlichkeit erhöhen Ausgangssprung von 0,5 auf 0,99.
Ich sehe kaum Ausgänge im Bereich von 0,6 bis 0,8. In allen Fällen beträgt die Wahrscheinlichkeit weniger als 0,99 oder 1.
Ich kenne Kalibrierungsmethoden nach dem Training wie Platt Scaling und Logistic Correction, habe mich aber gefragt, ob ich im XGBoost-Trainingsprozess etwas optimieren kann.
Ich rufe XGBoost aus verschiedenen Sprachen mit FFI auf. Es wäre also schön, wenn ich dieses Problem beheben könnte, ohne andere Kalibrierungsbibliotheken einzuführen, z. B. die Eval-Metrik von AUC auf Protokollverlust zu ändern.
XGBoost
ist es ziemlich robust gegen Ausreißer, wenn man es mit anderen Vanillemethoden wie vergleicht SVM
.