Als «feature-scaling» getaggte Fragen

Die Merkmalsskalierung ist ein Datenvorverarbeitungsschritt, bei dem der Bereich variabler Werte standardisiert wird. Die Standardisierung von Datensätzen ist eine häufige Anforderung für viele Algorithmen für maschinelles Lernen. Zu den gängigen Feature-Skalierungstypen gehört das Skalieren der Daten auf einen Mittelwert von Null und eine Einheitsvarianz sowie das Skalieren der Daten zwischen einem bestimmten Minimal- und Maximalwert.



1
Soll man heiße Vektoren mit numerischen Attributen skalieren
Im Falle einer Kombination von kategorialen und numerischen Attributen konvertiere ich die kategorialen Attribute normalerweise in einen heißen Vektor. Meine Frage ist, lasse ich diese Vektoren unverändert und skaliere die numerischen Attribute durch Standardisierung / Normalisierung, oder sollte ich die einen heißen Vektoren zusammen mit den numerischen Attributen skalieren?




2
Konsequenz der Feature-Skalierung
Ich verwende derzeit SVM und skaliere meine Trainingsfunktionen auf den Bereich von [0,1]. Ich passe zuerst mein Trainingsset an / transformiere es und wende dann dieselbe Transformation auf mein Testset an. Zum Beispiel: ### Configure transformation and apply to training set min_max_scaler = MinMaxScaler(feature_range=(0, 1)) X_train = min_max_scaler.fit_transform(X_train) ### Perform …



1
Was sind einige Situationen, in denen die Normalisierung der Eingabedaten auf Null bedeutet, dass die Einheitsvarianz nicht angemessen oder nicht vorteilhaft ist?
Ich habe beim maschinellen Lernen viele Male eine Normalisierung der Eingabedaten auf den Mittelwert Null und die Einheitsvarianz gesehen. Ist dies eine gute Praxis, die ständig durchgeführt werden muss, oder gibt es Zeiten, in denen dies nicht angemessen oder nicht vorteilhaft ist?

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.