Worum geht es bei der „Regression mit reduziertem Rang“?


22

Ich habe die Elemente des statistischen Lernens gelesen und konnte nicht verstehen, worum es in Abschnitt 3.7 "Schrumpfung und Auswahl mehrerer Ergebnisse" geht. Es geht um RRR (Reduced-Rank-Regression), und ich kann nur verstehen, dass es sich bei der Prämisse um ein verallgemeinertes multivariates lineares Modell handelt, bei dem die Koeffizienten unbekannt sind (und geschätzt werden sollen), aber bekanntermaßen nicht den vollen Rang haben. Das ist das einzige, was ich verstehe.

Der Rest der Mathematik ist mir ein Rätsel. Es hilft nicht einmal, dass die Autoren sagen, man kann zeigen und die Dinge als Übung belassen.

Kann jemand bitte helfen, zu erklären, was hier geschieht, intuitiv? Bespricht dieses Kapitel angeblich neue Methoden? oder was?


1
Es scheint Regressionsmethoden zu geben, die im Kontext von Schrumpfung und Variablenauswahl auf Multi-Outcome-Modellen aufbauen. Es gibt kein einziges Y-Ergebnis, sondern mehr als ein Y-Ergebnis. Angenommen, Sie haben 5-jährige Ergebnisse. In diesem Abschnitt werden Methoden erläutert, mit denen die Schätzung der Methoden zusammengefasst werden kann, anstatt nur 5 separate Modelle zu erstellen.
15.

1
Meine wenigen Cent: Die Annahme einer Matrix mit niedrigem Rang macht die Dinge einfacher. Glücklicherweise gilt diese Annahme für viele reale Datenquellen.
Vladislavs Dovgalecs

1
Es sieht so aus, als ob es bei dieser Annahme um die Einschränkung der Lösung geht. In diesem Artikel wird beschrieben, warum statprob.com/encyclopedia/…
Vladislavs Dovgalecs

Antworten:


42

1. Was ist RRR (Reduced-Rank Regression)?

Betrachten Sie eine multivariate multiple lineare Regression, dh eine Regression mit unabhängigen Variablen und q abhängigen Variablen. Sei X und Y zentrierte Prädiktor- ( n × p ) und Antwortdatensätze ( n × q ). Dann kann die gewöhnliche Regression der kleinsten Quadrate (OLS) so formuliert werden, dass die folgende Kostenfunktion minimiert wird:pqXYn×pn×q

L=YXB2,

Dabei ist eine Matrix von Regressionsgewichten. Ihre Lösung ist gegeben durch und es ist einfach zu sehen Sie, dass es äquivalent ist, separate OLS-Regressionen durchzuführen, eine für jede abhängige Variable. p × q B O L S = ( XX ) - 1 XY , qBp×q

B^OLS=(XX)1XY,
q

Eine Regression mit reduziertem Rang führt eine Rangbeschränkung für , dh sollte mit minimiert werden , wobei der maximal zulässige Rang von . L Rang ( B ) r r BBLrank(B)rrB

2. Wie erhalte ich die RRR-Lösung?

Es stellt sich heraus, dass RRR als Eigenvektorproblem gewertet werden kann. In der Tat können wir unter Verwendung der Tatsache, dass OLS im Wesentlichen eine orthogonale Projektion auf den Spaltenraum von , als umschreiben.Der erste Term hängt nicht von und der zweite Term kann durch SVD / PCA der angepassten Werte minimiert werden . L L = Y - X B O L S2 + X B O L S - X B 2 . B Y = X B O L SXL

L=YXB^OLS2+XB^OLSXB2.
BY^=XB^OLS

Insbesondere wenn zuerst Hauptachsen von , dann ist r Y B R R R = B O L S U R U r .UrrY^

B^RRR=B^OLSUrUr.

3. Wofür ist RRR gut?

Es kann zwei Gründe geben, RRR zu verwenden.

Erstens kann man es für Regularisierungszwecke verwenden. Ähnlich wie bei Ridge-Regression (RR), Lasso usw. führt RRR bei eine gewisse Strafe für "Schrumpfen" ein . Der optimale Rang kann durch Kreuzvalidierung ermittelt werden. Nach meiner Erfahrung ist RRR schneller als OLS, verliert jedoch tendenziell gegen RR. RRR + RR kann jedoch (geringfügig) eine bessere Leistung als RR allein erbringen. rBr

Zweitens kann man es als Methode zur Dimensionsreduktion / Datenexploration verwenden. Wenn wir eine Reihe von Prädiktorvariablen und eine Reihe von abhängigen Variablen haben, dann konstruiert RRR "latente Faktoren" im Prädiktorraum, die die Varianz von DVs am besten erklären. Man kann dann versuchen, diese latenten Faktoren zu interpretieren, sie aufzuzeichnen usw. Soweit ich weiß, wird dies routinemäßig in der Ökologie durchgeführt, wo RRR als Redundanzanalyse bezeichnet wird und ein Beispiel für das ist, was sie Ordnungsmethoden nennen ( siehe die Antwort von @ GavinSimpson hier) ).

4. Beziehung zu anderen Dimensionalitätsreduktionsmethoden

RRR ist eng mit anderen Dimensionalitätsreduktionsmethoden wie CCA und PLS verbunden. Ich habe es in meiner Antwort auf Was ist der Zusammenhang zwischen partiellen kleinsten Quadraten, reduzierter Rangregression und Hauptkomponentenregression?

wenn und zentrierte Prädiktor- ( ) und Antwortdatensätze ( ) sind und wenn wir nach dem ersten Achsenpaar suchen, für und für , dann maximieren diese Methoden die folgenden Mengen:XY.n×pn×qwRpXvRqY

PCA:Var(Xw)RRR:Var(Xw)Corr2(Xw,Yv)Var(Yv)PLS:Var(Xw)Corr2(Xw,Yv)Var(Yv)=Cov2(Xw,Yv)CCA:Var(Xw)Corr2(Xw,Yv)

Siehe dort für weitere Details.

In Torre, 2009, A Least-Squares Framework for Component Analysis, wird detailliert beschrieben, wie die meisten gängigen linearen multivariaten Methoden (z. B. PCA, CCA, LDA, - aber nicht PLS!) Als RRR angesehen werden können.

5. Warum ist dieser Abschnitt in Hastie et al. so verwirrend?

Hastie et al. Verwenden Sie den Begriff RRR, um sich auf etwas anderes zu beziehen! Anstelle der Verlustfunktion sie wie aus deren Formel 3.68 hervorgeht. Dies führt einen Whitening-Faktor in die Verlustfunktion ein, der im Wesentlichen die abhängigen Variablen aufhellt. Wenn Sie sich den Vergleich zwischen CCA und RRR oben ansehen, werden Sie feststellen, dass der Unterschied verschwindet , wenn weiß wird. Also, was Hastie et al. Call RRR ist eigentlich CCA in Verkleidung (und in der Tat, siehe deren 3,69).

L=YXB2,
L=(YXB)(YY)1/22,
Y.Y

Nichts davon wird in diesem Abschnitt richtig erklärt, daher die Verwirrung.


Weitere Informationen finden Sie in meiner Antwort auf das Tutorial "Freundlich" oder in der Einführung in die Regression mit reduziertem Rang .


Dies ist eine sehr schön geschriebene detaillierte Erklärung. Danke, ich weiß das zu schätzen.
cgo

@amoeba Fantastische Antwort. Kann ich ein paar Retuschen vorschlagen, um den Zugang zu erleichtern? Können Sie in der letzten Zeile des ersten Eintrags angeben, was ist, z. B. den Rang der Modellmatrix, wenn dies der Fall ist. Zweitens führen Sie in der Definitionsgleichung unter dem zweiten Eintrag , bei dem es sich um die Populationskoeffizienten und damit um einen unbekannten Parameter handelt. Können Sie das etwas näher erläutern? rB
Antoni Parellada

1
(1) Es ist eine multivariate Regression, @Antoni, dh ist eine Matrix und ist auch eine Matrix, kein Vektor. (2) Hier ist nur ein Parameter der Verlustfunktion . Das Ziel ist es, zu finden, das minimiert . Y.BBLBL
Amöbe sagt Reinstate Monica

1
rrdf^(r)=pq(pr)(qr)+"a small correction term"pqrYY^RRRR(r)Fro2(nqdf^(r))2


3

Reduced Rank Regression ist ein Modell, bei dem es nicht nur ein einziges Y-Ergebnis gibt, sondern mehrere Y-Ergebnisse. Natürlich können Sie einfach für jede Antwort eine separate multivariate lineare Regression anpassen. Dies scheint jedoch ineffizient zu sein, wenn die funktionale Beziehung zwischen den Prädiktoren und jeder Antwort eindeutig ähnlich ist. Sehen Sie sich diese Kaggle-Übung an, wenn ich glaube, dass dies offensichtlich zutrifft.

https://www.kaggle.com/c/bike-sharing-demand/data

Es gibt verschiedene verwandte Techniken zur Lösung dieses Problems, die "Faktoren" oder "Komponenten" aus den X-Variablen bilden, die dann zur Vorhersage der Ys verwendet werden. Diese Dokumentationsseite von SAS hat mir geholfen, die Unterschiede zu klären. Bei der reduzierten Rangregression geht es anscheinend darum, Komponenten zu extrahieren, die die Variation zwischen den Antworten maximal berücksichtigen, im Gegensatz zu Partial Least Squares, bei denen Komponenten extrahiert werden, die die Variation zwischen den Antworten und den Prädiktoren maximal berücksichtigen.

https://support.sas.com/documentation/cdl/de/statug/63347/HTML/default/viewer.htm#statug_pls_sect014.htm


+1. Das ist richtig. Ich habe diese SAS-Dokumentationsseite und insbesondere deren Abbildung in meiner Antwort an stats.stackexchange.com/questions/206587 besprochen.
Amöbe sagt Reinstate Monica
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.