Ich habe verschiedene Fragen bezüglich der First Penalty im Rahmen der kleinsten Fehlerquadrate:
1) Der Ausdruck legt nahe, dass die Kovarianzmatrix von X zu einer Diagonalmatrix geschrumpft ist, was bedeutet, dass (unter der Annahme, dass die Variablen vor der Prozedur standardisiert wurden) die Korrelation zwischen den Eingabevariablen verringert wird. Ist diese Interpretation richtig?
2) Wenn es sich um eine Schrumpfungsanwendung handelt, warum wird sie nicht in den Zeilen von , vorausgesetzt, wir können Lambda mit einer Normalisierung irgendwie auf [0,1] beschränken .
3) Was kann eine Normalisierung für so dass sie auf einen Standardbereich wie [0,1] beschränkt werden kann?
4) Das Hinzufügen einer Konstante zur Diagonale wirkt sich auf alle Eigenwerte aus. Wäre es besser, nur die singulären oder nahezu singulären Werte anzugreifen? Entspricht dies der Anwendung von PCA auf X und der Beibehaltung der Top-N-Hauptkomponenten vor der Regression oder hat es einen anderen Namen (da die Berechnung der Kreuzkovarianz nicht geändert wird)?
5) Können wir die Cross-Kovarianz regulieren oder hat sie irgendeinen , dh
Wobei ein kleines die Kreuzkovarianz senkt. Dies senkt natürlich alle Werte gleichermaßen, aber vielleicht gibt es einen intelligenteren Weg, wie das Fest / Weich-Schwellwert-Verhältnis, abhängig vom Kovarianzwert.