Der Kredit für diese Antwort geht an @ttnphns, der alles in den obigen Kommentaren erklärt hat. Trotzdem möchte ich eine erweiterte Antwort geben.
Zu Ihrer Frage: Werden die LDA-Ergebnisse für standardisierte und nicht standardisierte Funktionen genau gleich sein? --- Die Antwort lautet Ja . Ich werde zuerst ein informelles Argument vorbringen und dann mit etwas Mathematik fortfahren.
Stellen Sie sich einen 2D-Datensatz vor, der als Streudiagramm auf einer Seite eines Ballons dargestellt ist (Original-Ballonbild von hier ):
Hier sind rote Punkte eine Klasse, grüne Punkte eine andere Klasse und die schwarze Linie die LDA-Klassengrenze. Das erneute Skalieren der oder Achse entspricht nun dem horizontalen oder vertikalen Strecken des Ballons. Es ist intuitiv klar, dass, obwohl sich die Steigung der schwarzen Linie nach einer solchen Dehnung ändert, die Klassen genau so trennbar sind wie zuvor und sich die relative Position der schwarzen Linie nicht ändert. Jede Testbeobachtung wird derselben Klasse wie vor dem Strecken zugeordnet. Man kann also sagen, dass Dehnen die Ergebnisse der LDA nicht beeinflusst.xy
Mathematisch findet LDA nun einen Satz von Diskriminanzachsen, indem Eigenvektoren von berechnet werden , wobei und innerhalb und zwischen Klassen liegen Streumatrizen. Entsprechend sind dies verallgemeinerte Eigenvektoren des verallgemeinerten Eigenwertproblems .W−1BWBBv=λWv
Stellen Sie sich eine zentrierte Datenmatrix mit Variablen in Spalten und Datenpunkten in Zeilen vor, sodass die gesamte Streumatrix durch . Das Standardisieren der Daten läuft darauf hinaus, jede Spalte von um eine bestimmte Zahl zu skalieren , dh durch ersetzen , wobei ist eine Diagonalmatrix mit Skalierungskoeffizienten (Inversen der Standardabweichungen jeder Spalte) auf der Diagonale. Nach einer solchen Neuskalierung ändert sich die Streumatrix wie folgt: , und dieselbe Transformation wird mit durchgeführtXT=X⊤XXXnew=XΛΛTnew=ΛTΛWnew und .Bnew
Sei ein Eigenvektor des ursprünglichen Problems, dhWenn wir diese Gleichung links mit multiplizieren und vor auf beiden Seiten einfügen , erhalten wir dh was bedeutet, dassv
Bv=λWv.
ΛΛΛ−1vΛBΛΛ−1v=λΛWΛΛ−1v,
BnewΛ−1v=λWnewΛ−1v,
Λ−1vist ein Eigenvektor nach Neuskalierung mit genau dem gleichen Eigenwert wie zuvor.
λ
Die Diskriminanzachse (gegeben durch den Eigenvektor) ändert sich also, aber ihr Eigenwert, der zeigt, wie stark die Klassen getrennt sind, bleibt genau gleich. Darüber hinaus wird die Projektion auf dieser Achse, die ursprünglich von , jetzt von , dh es bleibt auch genau gleich (möglicherweise bis zu einem Skalierungsfaktor).XvXΛ(Λ−1v)=Xv
in general a "Z-score normalization" (or standardization) of features won't be necessary, even if they are measured on completely different scales
Nein, diese Aussage ist falsch. Das Problem der Standardisierung mit LDA ist das gleiche wie bei jeder multivariaten Methode. Zum Beispiel PCA. Mahalanobis Distanz hat nichts mit diesem Thema zu tun.