Warum proximaler Gradientenabstieg anstelle einfacher Subgradientenmethoden für Lasso?


9

Ich dachte daran, Lasso mit Vanille-Subgradienten-Methoden zu lösen. Aber ich habe Leute gelesen, die vorschlagen, den proximalen Gradientenabstieg zu verwenden. Kann jemand hervorheben, warum für Lasso proximale GD anstelle von Vanille-Subgradienten-Methoden verwendet werden?

Antworten:


13

In der Tat kann eine ungefähre Lösung für Lasso unter Verwendung von Subgradientenmethoden gefunden werden. Angenommen, wir möchten die folgende Verlustfunktion minimieren:

f(w;λ)=yXw22+λw1

Der Gradient des Strafzeitraums ist für und für , aber der Strafzeitraum ist bei differenzierbar . Stattdessen können wir die Subgradienten verwenden , die die gleiche ist , aber einen Wert von für .λwi<0λwi>00λsgn(w)0wi=0

Der entsprechende Subgradient für die Verlustfunktion ist:

g(w;λ)=2XT(yXw)+λsgn(w)

Wir können die Verlustfunktion mit einem Ansatz minimieren, der dem Gradientenabstieg ähnelt, aber den Subgradienten verwendet (der überall dem Gradienten entspricht, außer , wo der Gradient undefiniert ist). Die Lösung kann der tatsächlichen Lasso-Lösung sehr nahe kommen, enthält jedoch möglicherweise keine exakten Nullen. Wenn die Gewichte Null sein sollten, werden stattdessen extrem kleine Werte verwendet. Dieser Mangel an wahrer Sparsamkeit ist ein Grund, keine Subgradientenmethoden für Lasso zu verwenden. Engagierte Löser nutzen die Problemstruktur, um auf rechnerisch effiziente Weise wirklich spärliche Lösungen zu erstellen. Dieser Beitrag0sagt, dass dedizierte Methoden (einschließlich proximaler Gradientenmethoden) nicht nur spärliche Lösungen produzieren, sondern auch schnellere Konvergenzraten aufweisen als subgradiente Methoden. Er gibt einige Referenzen.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.