Bridge Penalty vs. Elastic Net Regularisierung


22

Einige und Approximationen sind gut untersucht, wie zum Beispiel der LASSO ( ) und der Ridge ( ) und wie diese in der Regression verglichen werden.L 2L1L2

Ich habe über die Brückenstrafe gelesen, die die verallgemeinerte Strafe ist. Vergleichen Sie das mit dem LASSO mit \ gamma = 1 und dem Ridge mit \ gamma = 2 , was sie zu Sonderfällen macht.βjγγ=1γ=2

Wenjiang [ 1 ] verglich die Bridge-Strafe als γ1 mit der LASSO, aber ich konnte keinen Vergleich zur Elastic Net-Regularisierung finden, einer Kombination der LASSO- und der Ridge-Strafe, angegeben als λ2β2+λ1β1 .

Dies ist eine interessante Frage, da das elastische Netz und diese spezifische Brücke ähnliche Nebenbedingungen haben. Vergleichen Sie diese Einheitskreise anhand der verschiedenen Metriken ( p ist die Potenz der Minkowski-Distanz ):

Einheit kreisen für verschiedene Kräfte der Minkowski-Distanz ein

p=1 entspricht dem LASSO, p=2 dem Ridge und p=1.4 einer möglichen Bridge. Das elastische Netz wurde mit der gleichen Gewichtung für die Strafen L1 und L2 . Diese Zahlen sind zum Beispiel nützlich, um die Sparsity zu identifizieren (die Bridge eindeutig fehlt, während Elastic Net sie vor LASSO bewahrt).

Wie verhält sich die Bridge mit 1<γ<2 Vergleich zu Elastic Net hinsichtlich der Regularisierung (außer der Sparsity)? Ich habe besonderes Interesse an beaufsichtigtem Lernen, daher ist möglicherweise eine Diskussion über die Auswahl / Gewichtung von Merkmalen angebracht. Auch eine geometrische Argumentation ist willkommen.

Wichtiger ist vielleicht, dass das elastische Netz in diesem Fall immer wünschenswerter ist.


[1] Fu, WJ (1998). Bestrafte Regressionen: die Brücke gegen das Lasso. Journal of Computational and Graphical Statistics, 7 (3), 397-416.


EDIT: Es gibt diese Frage, wie zu entscheiden, welche Strafmaßnahme zu verwenden ist? Es gibt keine allgemeinen Richtlinien oder Faustregeln im Lehrbuch, in denen LASSO, Ridge, Bridge und Elastic Net oberflächlich erwähnt werden. Es gibt jedoch keine Versuche, diese zu vergleichen.


4
Nur tangential verwandt, aber wenn die die MAP-Schätzung einer Bayes'schen Regression mit unabhängigen Laplace- für Koeffizienten ist und die für Gauß'sche dieselbe ist, frage ich mich, ob die Brückenstrafe einem Subbotin vor ... stats.stackexchange.com/questions/201038/...L 2L1L2
Sycorax sagt wieder einzusetzen Monica

@RichardHardy Es gibt keine Notwendigkeit, Lasso in allen Hauptstädten zu schreiben, siehe meinen Kommentar hier .
Amöbe sagt Reinstate Monica

2
Denken Sie daran, dass die Brückenregression zulässt , was eine nichtkonvexe Regression ergibt. Dies ist insbesondere dann hilfreich, wenn Sie versuchen, Gruppen von Kovariaten auszuwählen, insbesondere aus spärlichen Daten. Oder Sie könnten im Allgemeinen vordefinierte Gruppen von Kovariaten haben, die Sie regulieren würden, damit keine bestimmte Gruppe groß ist, und dann Koeffizienten einzelner Gruppen regulieren, um Sparsity zu erzielen. Dh wenn Sie schreiben , wobei dann könnten Sie . L 2 L 1 β = ( a 1 , , a k ) a i = ( β i 1 , β i 2 , , , β i r ) λ 1β γ i + λ 2 Σ ia i ν iγ<1L2L1β=(a1,,ak)ai=(βi1,βi2,,,βir)λ1βγi+λ2iaiνi
Alex R.

@AlexR. Ich sollte eigentlich klarstellen, dass ich mich auf beziehe . Ich wusste nicht, dass auch Bridge heißt. γ < 1γ1γ<1
Firebug

1
@amoeba, OK, gut. Normalerweise bearbeite ich nicht, wenn die Verwendung von Großbuchstaben im gesamten Beitrag konsistent ist, aber dieses Mal gab es sowohl "LASSO" als auch "Lasso". Deshalb habe ich mich für "LASSO" entschieden, das erste Formular im Beitrag. Ich denke immer an das Akronym, deshalb habe ich alle Großbuchstaben verwendet; aber wie Sie sagen, kann einfaches "Lasso" besser sein.
Richard Hardy

Antworten:


20

Inwiefern sich Brückenregression und elastisches Netz unterscheiden, ist angesichts ihrer ähnlich aussehenden Strafen eine faszinierende Frage. Hier ist ein möglicher Ansatz. Angenommen, wir lösen das Brückenregressionsproblem. Wir können dann fragen, wie sich die elastische Netzlösung unterscheiden würde. Ein Blick auf die Gradienten der beiden Verlustfunktionen kann dazu etwas sagen.

Brückenregression

Angenommen, ist eine Matrix, die Werte der unabhängigen Variablen enthält ( Punkte x Dimensionen), ist ein Vektor, der Werte der abhängigen Variablen enthält, und ist der Gewichtsvektor.n dXndwyw

Die Verlustfunktion bestraft die Norm der Gewichte mit der Größe :λ bqλb

Lb(w)=yXw22+λbwqq

Der Gradient der Verlustfunktion ist:

wLb(w)=2XT(yXw)+λbq|w|(q1)sgn(w)

i v c i sgn ( w ) w qvc bezeichnet die Hadamard-Potenz (dh die elementweise Potenz), die einen Vektor ergibt, dessen tes Element . ist die Vorzeichenfunktion (angewendet auf jedes Element von ). Der Gradient kann für einige Werte von bei Null undefiniert sein .ivicsgn(w)wq

Elastisches Netz

Die Verlustfunktion ist:

Le(w)=yXw22+λ1w1+λ2w22

Dies bestraft die Norm der Gewichte mit der Größe und die Norm mit der Größe . Das elastische Netzpapier nennt die Minimierung dieser Verlustfunktion das "naive elastische Netz", weil es die Gewichte doppelt schrumpft. Sie beschreiben ein verbessertes Verfahren, bei dem die Gewichte später neu skaliert werden, um die doppelte Schrumpfung zu kompensieren, aber ich werde nur die naive Version analysieren. Das ist ein Vorbehalt zu beachten.λ 1 2 λ 21λ12λ2

Der Gradient der Verlustfunktion ist:

wLe(w)=2XT(yXw)+λ1sgn(w)+2λ2w

Bei der Gradient bei Null undefiniert, da der Absolutwert in der Strafe dort nicht differenzierbar ist.1λ1>01

Ansatz

Nehmen wir an, wir wählen Gewichte , die das Brückenregressionsproblem lösen. Dies bedeutet, dass der Brückenregressionsgradient an diesem Punkt Null ist:w

wLb(w)=2XT(yXw)+λbq|w|(q1)sgn(w)=0

Deshalb:

2XT(yXw)=λbq|w|(q1)sgn(w)

Wir können dies in den elastischen Nettogradienten einsetzen, um einen Ausdruck für den elastischen Nettogradienten bei . Zum Glück kommt es nicht mehr direkt auf die Daten an:w

wLe(w)=λ1sgn(w)+2λ2wλbq|w|(q1)sgn(w)

Wenn wir den Gradienten des elastischen Netzes bei , sehen wir, dass die Brückenregression gegen die Gewichte konvergiert hat. Wie würde das elastische Netz diese Gewichte ändern wollen?ww

Sie gibt uns die lokale Richtung und Größe der gewünschten Änderung an, da der Gradient in Richtung des steilsten Aufstiegs zeigt und die Verlustfunktion abnimmt, wenn wir uns in die dem Gradienten entgegengesetzte Richtung bewegen. Der Gradient zeigt möglicherweise nicht direkt auf die elastische Netzlösung. Da die elastische Nettoverlustfunktion jedoch konvex ist, gibt die lokale Richtung / Größe einige Informationen darüber, wie sich die elastische Nettolösung von der Brückenregressionslösung unterscheidet.

Fall 1: Überprüfung der geistigen Gesundheit

( ). In diesem Fall entspricht die Brückenregression gewöhnlichen kleinsten Quadraten (OLS), da die Strafgröße Null ist. Das elastische Netz ist eine äquivalente Gratregression, da nur die Norm bestraft wird. Die folgenden Diagramme zeigen verschiedene Brückenregressionslösungen und wie sich der elastische Netzgradient für jede dieser Lösungen verhält.λb=0,λ1=0,λ2=12

Bildbeschreibung hier eingeben

Linke Darstellung: Elastischer Netzgradient gegen Brückenregressionsgewicht entlang jeder Dimension

Die x-Achse repräsentiert eine Komponente einer Menge von Gewichten die durch Brückenregression ausgewählt wurden. Die y-Achse stellt die entsprechende Komponente des elastischen Nettogradienten dar, der bei ausgewertet wird . Beachten Sie, dass die Gewichte mehrdimensional sind, aber wir betrachten nur die Gewichte / Verläufe entlang einer einzelnen Dimension.ww

Rechtes Diagramm: Elastische Nettoveränderungen der Brückenregressionsgewichte (2d)

Jeder Punkt repräsentiert eine Menge von 2D-Gewichten die durch Brückenregression ausgewählt wurden. Für jede Wahl von wird ein Vektor aufgetragen, der in die dem elastischen Nettogradienten entgegengesetzte Richtung zeigt, wobei die Größe proportional zu der des Gradienten ist. Das heißt, die eingezeichneten Vektoren zeigen, wie das elastische Netz die Brückenregressionslösung ändern möchte.ww

Diese Diagramme zeigen, dass das elastische Netz (in diesem Fall die Gratregression) im Vergleich zur Brückenregression (in diesem Fall OLS) die Gewichte gegen Null schrumpfen möchte. Der gewünschte Schrumpfbetrag nimmt mit der Größe der Gewichte zu. Wenn die Gewichte Null sind, sind die Lösungen gleich. Die Interpretation ist, dass wir uns in die dem Gradienten entgegengesetzte Richtung bewegen wollen, um die Verlustfunktion zu reduzieren. Angenommen, die Brückenregression hat sich einem positiven Wert für eine der Gewichte angenähert. Der Gradient des elastischen Netzes ist an dieser Stelle positiv, daher möchte das elastische Netz dieses Gewicht verringern. Wenn Sie den Gradientenabstieg verwenden, gehen Sie proportional zum Gradienten vor (technisch können wir den Gradientenabstieg natürlich nicht verwenden, um das elastische Netz zu lösen, da bei Null keine Differenzierbarkeit vorliegt.

Fall 2: Passende Brücke & elastisches Netz

( ). Ich habe die Bridge-Penalty-Parameter so gewählt, dass sie mit dem Beispiel aus der Frage übereinstimmen. Ich habe die Parameter für das elastische Netz gewählt, um die bestmögliche Strafe für das elastische Netz zu erhalten. Hier finden wir die Parameter für die elastische Nettostrafung, die bei einer bestimmten Verteilung der Gewichte die erwartete quadratische Differenz zwischen der Brücke und den elastischen Nettostrafungen minimieren:q=1.4,λb=1,λ1=0.629,λ2=0.355

minλ1,λ2E[(λ1w1+λ2w22λbwqq)2]

Hier habe ich Gewichtungen berücksichtigt, bei denen alle Einträge aus der Gleichverteilung auf (dh innerhalb eines am Ursprung zentrierten Hyperwürfels) stammen. Die am besten passenden elastischen Netzparameter waren für 2 bis 1000 Dimensionen ähnlich. Obwohl sie nicht empfindlich auf die Dimensionalität zu reagieren scheinen, hängen die am besten passenden Parameter vom Maßstab der Verteilung ab.[2,2]

Strafraum

Hier ist eine der Gesamtstrafe, die durch die Brückenregression ( ) und das am besten passende elastische Netz ( ) als Funktion der Gewichte (für den 2d-Fall) auferlegt wurde ):q=1.4,λb=100λ1=0.629,λ2=0.355

Bildbeschreibung hier eingeben

Gradientenverhalten

Bildbeschreibung hier eingeben

Wir können folgendes sehen:

  • Sei das gewählte Brückenregressionsgewicht entlang der Dimension .wjj
  • Wenn , möchte das elastische Netz das Gewicht gegen Null schrumpfen.|wj|<0.25
  • Wenn , die Brückenregression und die elastischen Netzlösungen sind gleich. Das elastische Netz will sich jedoch entfernen, wenn sich das Gewicht nur geringfügig unterscheidet.|wj|0.25
  • Wenn , elastisches Netz will das Gewicht erhöhen.0.25<|wj|<1.31
  • Wenn sind die Brückenregression und die elastischen Netzlösungen gleich. Das elastische Netz möchte sich von nahegelegenen Gewichten auf diesen Punkt zubewegen.|wj|1.31
  • Wenn , elastisches Netz will das Gewicht schrumpfen.|wj|>1.31

Die Ergebnisse sind qualitativ ähnlich, wenn wir den Wert von und / oder und das entsprechende beste . Die Punkte, an denen die Brücken- und elastischen Netzlösungen zusammenfallen, ändern sich geringfügig, aber das Verhalten der Gradienten ist ansonsten ähnlich.qλbλ1,λ2

Fall 3: Nicht übereinstimmende Brücke und elastisches Netz

λ 1 , λ 2 l 1 l 2(q=1.8,λb=1,λ1=0.765,λ2=0.225) . In diesem Regime verhält sich die Brückenregression ähnlich wie die Gratregression. Ich habe das am besten passende , aber dann vertauscht, sodass sich das elastische Netz eher wie ein Lasso verhält ( Strafe größer als Strafe).λ1,λ212

Bildbeschreibung hier eingeben

Im Verhältnis zur Brückenregression möchte das elastische Netz kleine Gewichte gegen Null schrumpfen und größere Gewichte erhöhen. In jedem Quadranten gibt es einen Satz von Gewichten, bei denen die Brückenregression und die elastischen Netzlösungen zusammenfallen. Das elastische Netz möchte sich jedoch von diesem Punkt entfernen, wenn sich die Gewichte nur geringfügig unterscheiden.

1 q > 1 λ 1 , λ 2 2 1(q=1.2,λb=1,λ1=173,λ2=0.816) . In diesem Regime ist die Brückenstrafe einer Strafe ähnlicher (obwohl die Brückenregression möglicherweise keine spärlichen Lösungen mit , wie im elastischen erwähnt). Ich habe das am besten passende , aber dann vertauscht, sodass sich das elastische Netz eher wie eine verhält ( Strafe größer als Strafe).1q>1λ1,λ221

Bildbeschreibung hier eingeben

Im Verhältnis zur Brückenregression möchte das elastische Netz kleine Gewichte wachsen lassen und größere Gewichte schrumpfen lassen. In jedem Quadranten gibt es einen Punkt, an dem die Brückenregression und die elastischen Netzlösungen zusammenfallen, und das elastische Netz möchte sich von benachbarten Punkten auf diese Gewichte zubewegen.


3
(+1) Tolle Antwort, danke für die Mühe! Könnten Sie noch eines ansprechen: "Ist das elastische Netz immer wünschenswerter?". Keine Notwendigkeit, langatmig zu sein;
Firebug

6
Brückenregression und elastisches Netz entsprechen der MAP-Schätzung mit verschiedenen Arten von Prioritäten für die Gewichte. Aus dieser Perspektive scheint die bessere Wahl der Prior zu sein, die besser zum Datenerzeugungsprozess passt, und keine der beiden Methoden könnte in allen Fällen besser sein.
user20160

2
+6, sehr nette Antwort. In Bezug auf Ihren obigen Kommentar: Was früher ergibt eine Brückenregression? Ich weiß, dass der Gaußsche Prior dem Kamm und der Laplace vor dem Lasso entspricht. Kann man diese Priors irgendwie kombinieren, um etwas zu erhalten, das einem elastischen Netz entspricht?
Amöbe sagt Reinstate Monica

2
@amoeba Die Frage war nicht an mich gerichtet, ich weiß, aber wie GeneralAbrial in der Frage sagte, entspricht Bridge wahrscheinlich einem Subbotin vor. Das elastische Netz liegt erwartungsgemäß zwischen dem Gaußschen und dem Laplaceschen Vorschiff. Siehe Li, Q. & Lin, N. (2010). Das Bayes'sche elastische Netz. Bayesian Analysis, 5 (1), 151 & ndash; 170. und Zou, H. & Hastie, T. (2005). Regularisierung und variable Auswahl über das elastische Netz. Zeitschrift der Royal Statistical Society: Reihe B (Statistical Methodology), 67 (2), 301-320. für einen kurzen Vergleich zwischen elastischem Netz und Brückenregression.
Firebug

2
@amoeba danke für die Aufmerksamkeit und die Aufmerksamkeit für diesen Beitrag, ebenso für den anderen Beitrag über PCA vs. nichtlineare Dimensionsreduktion. Es ist bewundernswert, dass Sie Ihren Repräsentanten verwenden, um die Fragen / Antworten anderer zu bewerben, und es freut mich, wenn dieser Beitrag für die Menschen zumindest von geringem Wert ist. Andere, danke auch für die freundlichen Worte.
User20160
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.