Antworten:
Wenn Sie die Normalisierung anwenden ([0,1] einpressen), haben Sie ein Maß für die relative Variablenbedeutung, aber es ändert den Maßstab Ihrer Variablen und Sie verlieren jegliche Interpretierbarkeit des Modells. Der Vorteil der Standardisierung ist , dass Sie immer noch das Modell interpretieren können , wie man sich mit unregularised OLS Regression (dies wurde bereits schon beantwortet hier ).
Die Normalisierung ist für Methoden mit Regularisierung sehr wichtig. Dies liegt daran, dass die Skalierung der Variablen Einfluss darauf hat, wie stark die Regularisierung auf bestimmte Variablen angewendet wird.
Angenommen, eine Variable hat einen sehr großen Maßstab, beispielsweise eine Größenordnung von Millionen, und eine andere Variable liegt zwischen 0 und 1. Dann können wir davon ausgehen, dass die Regularisierung nur geringe Auswirkungen auf die erste Variable hat.
Während wir die Normalisierung durchführen, ist es nicht so wichtig, sie auf 0 zu 1 zu normalisieren oder die Funktionen zu standardisieren.