Warum verwendet glmnet ein "naives" elastisches Netz aus dem Originalpapier von Zou & Hastie?


27

Das ursprüngliche elastische Netzpapier Zou & Hastie (2005) Regularisierung und Variablenauswahl über das elastische Netz führten die elastische Nettoverlustfunktion für die lineare Regression ein (hier gehe ich davon aus, dass alle Variablen zentriert und auf die Einheitsvarianz skaliert sind):

L=1nyXβ2+λ1β1+λ2β22,
nannte es aber "naives elastisches Netz". Sie argumentiertdass es Doppel Schrumpfung (Lasso und ridge) führt, dazu neigt, über schwund und kann durch Neuskalierung der resultierenden Lösung verbessert werdenwie
β^=(1+λ2)β^.
Sie gaben einige theoretische Argumente und experimentelle Beweise dafür, dass dies zu einer besseren Leistung führt.

Die nachfolgende glmnetVeröffentlichung Friedman, Hastie, & Tibshirani (2010) Regularisierungspfade für verallgemeinerte lineare Modelle über Koordinatenabstieg verwendeten diese Neuskalierung jedoch nicht und enthielten nur eine kurze Fußnote

Zou und Hastie (2005) nannten diese Strafe das naive elastische Netz und bevorzugten eine neu skalierte Version, die sie elastisches Netz nannten. Wir lassen diese Unterscheidung hier fallen.

Dort (oder in einem der Lehrbücher von Hastie et al.) Wird keine weitere Erklärung gegeben. Ich finde es etwas rätselhaft. Haben die Autoren die Neuskalierung weggelassen, weil sie sie für zu ad hoc hielten ? weil es in einigen weiteren experimenten schlechter lief? weil es nicht klar war, wie man es auf den GLM-Fall verallgemeinern soll? Ich habe keine Ahnung. Aber auf jeden Fall wurde das glmnetPaket seitdem sehr populär und so habe ich den Eindruck, dass heutzutage niemand die Neuskalierung von Zou & Hastie verwendet, und die meisten Leute sind sich dieser Möglichkeit wahrscheinlich nicht einmal bewusst.

Frage: War diese Neuskalierung schließlich eine gute oder eine schlechte Idee?

Mit glmnetParametrisierung, Zou & Hastie Neuskalierung sollte β * = ( 1 + λ ( 1 - α ) ) β .

β^=(1+λ(1-α))β^.

1
Da im Klebezettel das Ziel darin besteht, den gesamten Regularisierungspfad anzupassen, könnte die Idee sein, dass die Neuskalierung nur eine monotone Transformation des Pfades wäre?
Matthew Drury

1
@MatthewDrury Das stimmt aber trotzdem, wenn Friedman et al. glaubte, dass eine erneute Skalierung eine gute Idee ist, sie würde es nicht aus dem Papier und insbesondere nicht aus dem glmnetCode herauslassen. Es ist dort nicht einmal als optionale Funktion verfügbar (der frühere Code, der dem Artikel von 2005 beiliegt, unterstützt natürlich die Neuskalierung).
Amöbe sagt Reinstate Monica

4
Leider ist der öffentliche glmnet-Code völlig unlesbar ...
Matthew Drury

Antworten:


25

Ich schickte diese Frage per E-Mail an Zou und Hastie und erhielt die folgende Antwort von Hastie (ich hoffe, es würde ihm nichts ausmachen, wenn ich sie hier zitiere):

Ich denke, bei Zou et al. Waren wir besorgt über die zusätzliche Verzerrung, aber natürlich erhöht eine Neuskalierung die Varianz. Es verschiebt sich also nur um eins entlang der Kompromisskurve zwischen Bias und Varianz. Wir werden in Kürze eine Version des entspannten Lassos aufnehmen, die eine bessere Form der Neuskalierung darstellt.

Ich interpretiere diese Worte als eine Bestätigung von irgendeiner Form von der Vanille elastischer Netzlösung „neu zu skalieren“, aber Hastie scheint nicht mehr stehen zu dem besonderen Ansatz nach vorn 2005 in Zou & Hastie setzen.


Im Folgenden werde ich einige Skalierungsoptionen kurz überprüfen und vergleichen.

glmnet

L=12ny-β0-Xβ2+λ(αβ1+(1-α)β22/2),
β^
  1. β^neu skaliert=(1+λ(1-α))β^.
    α=0α=1
  2. β^Elastic-OLS-Hybrid=OLS(Xichβ^ich0)
    nn
  3. Das in der oben genannten E-Mail von Hastie erwähnte entspannte Lasso ist ein Vorschlag, ein weiteres Lasso für die vom ersten Lasso ausgewählte Teilmenge von Prädiktoren auszuführen. Die Idee ist, zwei verschiedene Strafen zu verwenden und beide durch Kreuzvalidierung auszuwählen . Man könnte dieselbe Idee auf das elastische Netz anwenden, aber dies scheint vier verschiedene Regularisierungsparameter zu erfordern, und deren Einstellung ist ein Albtraum.

    Ich schlage einen einfacheren vor β^α=0λ

    β^entspanntes elastisches Netz=Grat(Xichβ^ich0).

npn=44p=3000yX

RPrüfung2=1-yPrüfung-β^0-XPrüfungβ^2yPrüfung-β^02.
β^

Bildbeschreibung hier eingeben

Zumindest in diesen Daten übertreffen alle drei Ansätze den Schätzer für das elastische Vanillenetz, und "entspanntes elastisches Netz" erzielt die beste Leistung.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.