Kernel Ridge Regressionseffizienz


10

Die Ridge-Regression kann ausgedrückt werden als wobei die vorhergesagte Bezeichnung ist , die Identifizierungsmatrix, das Objekt, für das wir eine Bezeichnung finden möchten, und die Matrix von Objekten so dass:

y^=(XX+aId)1Xx
y^Idd×dxXn×dnxi=(xi,1,...,xi,d)Rd

X=(x1,1x1,2x1,dx2,1x2,2x2,dxn,1x1,2xn,d)

Wir können dies wie folgt kernelisieren:

y^=(K+aId)1k

Dabei ist die Matrix der KernelfunktionenKn×nK

K=(K(x1,x1)K(x1,x2)K(x1,xn)K(x2,x1)K(x2,x2)K(x2,xn)K(xn,x1)K(xn,x2)K(xn,xn))

und der Spaltenvektor der Kernfunktionenkn×1K

k=(K(x1,x)K(x2,x)K(xn,x))

Fragen:

(a) Wenn es mehr Objekte als Dimensionen gibt, ist es sinnvoll, keine Kernel zu verwenden? Eg lassen sein Matrix dann wird eine sein und wir werden ein Ende Invertieren - Matrix anstelle der Matrix müssten wir invertieren, wenn wir Kernel verwenden würden. Bedeutet dies, dass wir keine Kernel verwenden sollten , wenn ?xiX50×3XX3×33×350×50dn

(b) Sollte der einfachste Kernel verwendet werden? Es scheint, dass Kernel in der Ridge-Regression verwendet werden, um die Einflüsse der Dimensionalität zu negieren und bestimmte Eigenschaften des Merkmalsraums nicht zu nutzen (im Gegensatz zu Support-Vektor-Maschinen). Obwohl Kernel die Abstände zwischen Objekten ändern können, gibt es beliebte Kernel, die häufig bei der Ridge-Regression verwendet werden?

(c) Wie hoch ist die Zeit-Komplexität der Ridge-Regression und / oder der Kernel-Ridge-Regression?O


'Effizienz' hat in der Statistik eine andere Bedeutung. Meinten Sie "Komplexität der Berechnungen"? (im Titel)
Memming

Ich meinte "algorithmische Effizienz". Obwohl es wahr ist, dass meine Fragen dies im Wesentlichen auf "Rechenkomplexität" reduzieren.
Helix

Antworten:


5

(a) Der Zweck der Verwendung eines Kernels besteht darin, in diesem Fall ein nichtlineares Regressionsproblem zu lösen. Mit einem guten Kernel können Sie Probleme in einem möglicherweise unendlich dimensionalen Merkmalsraum lösen. Die Verwendung eines linearen Kernels und die Durchführung der Kernel-Ridge-Regression im dualen Raum entspricht der Lösung des Problems im ursprünglichen Raum Das heißt, es bringt keinen Vorteil (es ist nur viel langsamer, wenn die Anzahl der Proben wächst, wie Sie beobachtet haben).K(x,y)=xy

(b) Eine der beliebtesten Optionen ist der quadratische Exponentialkern die universell ist (siehe unten). Es gibt viele, viele Kernel, und jeder von ihnen induziert ein anderes inneres Produkt (und damit eine andere Metrik) für Ihren Feature-Space.K(x,y)=exp(τ2||xy||2)

(c) Eine einfache Implementierung erfordert das Lösen einer linearen Gleichung der Größe , also ist es . Es gibt viele schnellere Approximationsmethoden wie die Nyström-Approximation. Dies ist ein Bereich aktiver Forschung.nO(n3)

Verweise:

  1. Bharath Sriperumbudur, Kenji Fukumizu und Gert Lanckriet. Zum Verhältnis von Universalität, charakteristischen Kerneln und RKHS-Einbettung von Maßnahmen. Journal of Machine Learning Research, 9: 773–780, 2010.
  2. Bernhard Schlkopf, Alexander J. Smola. Lernen mit Kerneln: Unterstützung von Vektormaschinen, Regularisierung, Optimierung und darüber hinaus 2002
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.