Gemäß der Dokumentation des StandardScaler- Objekts in scikit-learn:
Beispielsweise gehen viele Elemente, die in der Zielfunktion eines Lernalgorithmus verwendet werden (wie der RBF-Kernel von Support Vector Machines oder die L1- und L2-Regularisierer linearer Modelle), davon aus, dass alle Merkmale um 0 zentriert sind und eine Varianz in derselben Reihenfolge aufweisen. Wenn ein Merkmal eine um Größenordnungen größere Varianz aufweist als andere, kann dies die Zielfunktion dominieren und dazu führen, dass der Schätzer nicht wie erwartet korrekt von anderen Merkmalen lernen kann.
Ich sollte meine Funktionen vor der Klassifizierung skalieren. Gibt es eine einfache Möglichkeit zu zeigen, warum ich das tun sollte? Verweise auf wissenschaftliche Artikel wären noch besser. Ich habe bereits einen gefunden , aber es gibt wahrscheinlich viele andere.