Ich versuche, die rechnerische Komplexität / Schätzgeschwindigkeit von drei Gruppen von Methoden für die lineare Regression zu vergleichen, wie sie in Hastie et al. "Elemente des statistischen Lernens" (2. Aufl.), Kapitel 3:
- Auswahl der Teilmenge
- Schrumpfmethoden
- Methoden mit abgeleiteten Eingaberichtungen (PCR, PLS)
Der Vergleich kann sehr grob sein, nur um eine Vorstellung zu vermitteln. Ich verstehe, dass die Antworten von der Dimension des Problems und der Anpassung der Computerarchitektur abhängen können. Für ein konkretes Beispiel kann man eine Stichprobengröße von 500 und 50 Regressionskandidaten in Betracht ziehen. Ich interessiere mich hauptsächlich für die Motivation hinter der Komplexität der Berechnung / Schätzgeschwindigkeit, aber nicht dafür, wie lange ein bestimmter Prozessor für das gegebene Beispiel benötigt.