Als «lasso» getaggte Fragen

Eine Regularisierungsmethode für Regressionsmodelle, bei der die Koeffizienten gegen Null verkleinert werden und einige von ihnen gleich Null sind. Somit führt Lasso eine Merkmalsauswahl durch.

1
Wie man die Ergebnisse interpretiert, wenn sowohl Grat als auch Lasso getrennt gut abschneiden, aber unterschiedliche Koeffizienten erzeugen
Ich führe sowohl mit Lasso als auch mit Ridge ein Regressionsmodell durch (um eine diskrete Ergebnisvariable im Bereich von 0 bis 5 vorherzusagen). Bevor ich das Modell ausführe, verwende ich die SelectKBestMethode scikit-learn, um den Funktionsumfang von 250 auf 25 zu reduzieren . Ohne eine anfängliche Merkmalsauswahl ergeben sowohl Lasso …


2
Kreuzvalidierung nach LASSO in komplexen Umfragedaten
Ich versuche, mit LASSO eine Modellauswahl für einige Kandidaten-Prädiktoren mit einem kontinuierlichen Ergebnis durchzuführen. Das Ziel besteht darin, das optimale Modell mit der besten Vorhersageleistung auszuwählen, was normalerweise durch K-fache Kreuzvalidierung erfolgen kann, nachdem ein Lösungspfad der Abstimmungsparameter von LASSO erhalten wurde. Das Problem hierbei ist, dass die Daten aus …

2
Warum kann die Ridge-Regression keine bessere Interpretierbarkeit bieten als LASSO?
Ich habe bereits eine Vorstellung von den Vor- und Nachteilen der Gratregression und des LASSO. Für das LASSO ergibt der L1-Strafausdruck einen Vektor mit geringem Koeffizienten, der als Merkmalsauswahlmethode angesehen werden kann. Es gibt jedoch einige Einschränkungen für den LASSO. Wenn die Merkmale eine hohe Korrelation aufweisen, wählt der LASSO …

1
Auswahl des Bereichs und der Gitterdichte für den Regularisierungsparameter in LASSO
In der Zwischenzeit studiere ich LASSO (Operator für geringste absolute Schrumpfung und Auswahl). Ich sehe, dass der optimale Wert für den Regularisierungsparameter durch Kreuzvalidierung ausgewählt werden kann. Ich sehe auch in der Gratregression und vielen Methoden, die Regularisierung anwenden, dass wir CV verwenden können, um den optimalen Regularisierungsparameter zu finden …

2
Quadratische Programmierung und Lasso
Ich versuche eine Lasso-Regression durchzuführen, die folgende Form hat: Minimiere inwww(Y−Xw)′(Y−Xw)+λ|w|1(Y−Xw)′(Y−Xw)+λ|w|1(Y - Xw)'(Y - Xw) + \lambda \;|w|_1 Bei einem wurde mir geraten, das optimale mit Hilfe der quadratischen Programmierung zu finden, die die folgende Form annimmt:λλ\lambdawww Minimiere in , vorbehaltlichxxx12x′Qx+c′x12x′Qx+c′x\frac{1}{2} x'Qx + c'xAx≤b.Ax≤b.Ax \le b. Jetzt ist mir klar, …

4
Wie man einen Koeffizienten festlegt und andere mithilfe der Regression anpasst
Ich möchte einen bestimmten Koeffizienten manuell festlegen, z. B. , und dann die Koeffizienten an alle anderen Prädiktoren anpassen, während im Modell erhalten .β1=1.0β1=1.0\beta_1=1.0β1=1.0β1=1.0\beta_1=1.0 Wie kann ich dies mit R erreichen? Ich würde besonders gerne mit LASSO ( glmnet) arbeiten, wenn möglich. Wie kann ich diesen Koeffizienten alternativ auf einen …

1
Ridge und LASSO eine Kovarianzstruktur gegeben?
(y⃗ −Xβ⃗ )TV−1(y⃗ −Xβ⃗ )+λf(β), (1)(y→−Xβ→)TV−1(y→−Xβ→)+λf(β), (1)(\vec{y}-X\vec{\beta})^TV^{-1}(\vec{y}-X\vec{\beta})+\lambda f(\beta),\ \ \ (1) (y⃗ −Xβ⃗ )(y⃗ −Xβ⃗ )+λf(β). (2)(y→−Xβ→)(y→−Xβ→)+λf(β). (2)(\vec{y}-X\vec{\beta})(\vec{y}-X\vec{\beta})+\lambda f(\beta).\ \ \ \ \ \ \ \ \ \ \ \ (2) This was mainly motivated by the fact that in my particular application, we have different variances for the y⃗ …

3
Wie vertretbar ist es,
Wenn ich mein Lambda durch Kreuzvalidierung bestimme, werden alle Koeffizienten Null. Aber ich habe einige Hinweise aus der Literatur, dass einige der Prädiktoren definitiv das Ergebnis beeinflussen sollten. Ist es Unsinn, Lambda willkürlich zu wählen, damit es genauso wenig Sparsamkeit gibt, wie man möchte? Ich möchte die Top 10 oder …
11 lasso 


2
Kann
Wenn , kann‖ β ∗ ‖β∗= a r gm i nβ∥ y- X.β∥22+ λ ∥ β∥1β∗=argminβ‖y−Xβ‖22+λ‖β‖1\beta^*=\mathrm{arg\,min}_{\beta} \|y-X\beta\|^2_2+\lambda\|\beta\|_1 zunehmen, wenn λ zunimmt?∥ β∗∥2‖β∗‖2\|\beta^*\|_2λλ\lambda Ich denke das ist möglich. Obwohl nicht zunimmt, wenn λ zunimmt (mein Beweis ), kann ‖ β ∗ ‖ 2 zunehmen. Die folgende Abbildung zeigt eine Möglichkeit. Wenn …
11 lasso 

2
Genaue Definition des Abweichungsmaßes im glmnet-Paket mit Kreuzvalidierung?
Für meine aktuelle Forschung verwende ich die Lasso-Methode über das glmnet-Paket in R für eine binomialabhängige Variable. In glmnet wird das optimale Lambda durch Kreuzvalidierung ermittelt und die resultierenden Modelle können mit verschiedenen Maßnahmen verglichen werden, z. B. Fehlklassifizierungen oder Abweichungen. Meine Frage: Wie genau ist Abweichung in glmnet definiert? …

2
Soft-Thresholding gegen Lasso-Bestrafung
Ich versuche, das, was ich bisher in der bestraften multivariaten Analyse verstanden habe, mit hochdimensionalen Datensätzen zusammenzufassen, und ich habe immer noch Schwierigkeiten, eine korrekte Definition von Soft-Thresholding vs. Lasso- Bestrafung (oder Bestrafung) zu erhalten.L1L1L_1 Genauer gesagt habe ich die spärliche PLS-Regression verwendet, um die 2-Block-Datenstruktur einschließlich genomischer Daten ( …

1
LASSO-Beziehung zwischen
Mein Verständnis der LASSO-Regression ist, dass die Regressionskoeffizienten ausgewählt werden, um das Minimierungsproblem zu lösen: minβ∥y−Xβ∥22 s.t.∥β∥1≤tminβ‖y−Xβ‖22 s.t.‖β‖1≤t\min_\beta \|y - X \beta\|_2^2 \ \\s.t. \|\beta\|_1 \leq t In der Praxis wird dies mit einem Lagrange-Multiplikator durchgeführt, wodurch das Problem gelöst werden muss minβ∥y−Xβ∥22+λ∥β∥1minβ‖y−Xβ‖22+λ‖β‖1\min_\beta \|y - X \beta\|_2^2 + \lambda \|\beta\|_1 …


Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.