Was macht den Gaußschen Kernel so magisch für PCA und auch im Allgemeinen?


67

Ich habe über Kernel-PCA ( 1 , 2 , 3 ) mit Gauß- und Polynomkernen gelesen.

  • Wie trennt der Gaußsche Kern scheinbar jede Art von nichtlinearen Daten außergewöhnlich gut? Bitte geben Sie eine intuitive Analyse sowie, wenn möglich, eine mathematische an.

  • Was ist eine Eigenschaft des Gaußschen Kernels (mit ideal ), die andere Kernel nicht haben? Man denke an neuronale Netze, SVMs und RBF-Netze.σ

  • Warum setzen wir die Norm nicht beispielsweise durch ein Cauchy-PDF und erwarten die gleichen Ergebnisse?

1
+1. Hervorragende Frage, die ich fast übersehen hätte, weil sie kein [pca] -Tag hatte! Jetzt bearbeitet
Amöbe sagt Reinstate Monica

4
Gute Frage. Ich frage mich, ob die Antwort vielleicht "oh ja, viele andere Kernel würden auch gut funktionieren, aber Gauß ist bekannt / einfach" lautet
Stumpy Joe Pete

@StumpyJoePete Ich denke nicht, dass das so eine triviale Antwort ist. Welcher Standortparameter der anderen Distribution ist auch deren Mittelwert? Welcher andere Verteilungsskalenparameter ist auch seine Varianz? Welche andere Distribution ist so universell intuitiv? Sicher nicht die Cauchy - Verteilung - es nicht einmal haben eine mittlere!
Shadowtalker

3
@ssdecontrol Ich bin froh, dass mir das Gegenteil bewiesen wurde. Ich habe sowohl die Frage als auch eine der Antworten hochgestuft - ich denke nur, dass meine langweilige, laute, deflationäre Antwort einen guten Standard darstellt, den eine echte Antwort widerlegen sollte.
Stumpy Joe Pete

Ich denke, das könnte helfen: stats.stackexchange.com/questions/168051/…

Antworten:


54

Ich denke, der Schlüssel zur Magie ist Geschmeidigkeit. Meine lange Antwort, die folgt, ist einfach, über diese Glätte zu erklären. Es kann eine Antwort sein oder auch nicht, die Sie erwarten.

Kurze Antwort:

Bei einem positiv definierten Kernel existiert der entsprechende Funktionsraum . Eigenschaften von Funktionen werden vom Kernel bestimmt. Es stellt sich heraus, dass wenn ein Gaußscher Kernel ist, die Funktionen in sehr glatt sind. Eine gelernte Funktion (z. B. eine Regressionsfunktion, Hauptkomponenten in RKHS wie in Kernel-PCA) ist also sehr glatt. Normalerweise ist die Annahme der Glätte für die meisten Datensätze, die wir behandeln möchten, sinnvoll. Dies erklärt, warum ein Gaußscher Kern magisch ist.kHkH

Lange Antwort, warum ein Gauß-Kernel reibungslose Funktionen bietet:

Ein positiver bestimmter Kernel definiert (implizit) ein inneres Produkt für den aus Ihrer Eingabe konstruierten Merkmalsvektor und ist ein Hilbert-Raum. Die Notation bedeutet ein inneres Produkt zwischen und . Für unseren Zweck können Sie sich vorstellen, dass der übliche euklidische Raum ist, aber möglicherweise mit einer unendlichen Anzahl von Dimensionen. Stellen Sie sich den üblichen Vektor vor, der unendlich lang ist wiek(x,y)k(x,y)=ϕ(x),ϕ(y)Hϕ(x)xHϕ(x),ϕ(y)ϕ(x)ϕ(y)Hϕ(x)=(ϕ1(x),ϕ2(x),). In Kernel-Methoden ist ein Funktionsraum, der als reproduzierender Kernel-Hilbert-Raum (RKHS) bezeichnet wird. Dieser Raum hat eine spezielle Eigenschaft namens "reproducing property", nämlich . Dies besagt, dass Sie zur Auswertung von zunächst einen Merkmalsvektor (unendlich lang wie erwähnt) für konstruieren . Dann konstruieren Sie Ihren Merkmalsvektor für mit (unendlich lang). Die Bewertung von wird gegeben, indem ein inneres Produkt der beiden genommen wird. Offensichtlich wird in der Praxis niemand einen unendlich langen Vektor konstruieren. Da wir uns nur um sein inneres Produkt kümmern, werten wir den Kernel direkt ausHf(x)=f,ϕ(x)f(x)fxϕ(x)f(x)k. Das Umgehen der Berechnung expliziter Merkmale und das direkte Berechnen des inneren Produkts wird als "Kernel-Trick" bezeichnet.

Was sind die Features?

Ich sagte immer wieder features ohne anzugeben, was sie sind. Bei einem Kernel sind die Funktionen nicht eindeutig. Aber ist eindeutig bestimmt. Betrachten wir zur Erläuterung der Glätte der Funktionen die Fourier-Merkmale. Nehmen Sie an, dass der Kernel eine Übersetzungsinvariante ist , dh dh der Kernel hängt nur vom Unterschied der beiden Argumente ab. Der Gaußsche Kernel hat diese Eigenschaft. Es sei die Fourier-Transformation von .ϕ1(x),ϕ2(x),φ ( x ) , φ ( y ) k k ( x , y ) = k ( x - y ) k kkϕ(x),ϕ(y)kk(x,y)=k(xy)k^k

In diesem Fourier-Standpunkt sind die Merkmale von gegeben durch . Dies bedeutet, dass die Merkmalsdarstellung Ihrer Funktion durch ihre Fouriertransformation geteilt durch die Fouriertransformation des Kernels . Die Merkmals Darstellung , welches wird , wo . Man kann zeigen, dass die Reproduktionseigenschaft hält (eine Übung für die Leser).f : = (, f l / ffkxφ(x)(,f:=(,f^l/k^l,)fkxϕ(x)i=(,k^lexp(ilx),)i=1

Wie in jedem Hilbert-Raum müssen alle zum Raum gehörenden Elemente eine endliche Norm haben. Betrachten wir die quadratische Norm eines :fH

fH2=f,fH=l=f^l2k^l.

Wann ist diese Norm endlich, dh gehört zum Raum? Es ist, wenn schneller fällt als so dass die Summe konvergiert. Nun ist die Fouriertransformation eines Gaußschen Kernelsff^l2k^l k(x,y)=exp(xy2σ2)

ist ein weiterer Gaußscher Wert, bei dem mit exponentiell schnell abnimmt . Wenn also in diesem Raum liegen soll, muss seine Fouriertransformation noch schneller abfallen als die von . Dies bedeutet, dass die Funktion effektiv nur wenige Niederfrequenzkomponenten mit hohen Gewichten aufweist. Ein Signal mit nur Niederfrequenzkomponenten wackelt nicht viel. Dies erklärt, warum ein Gauß-Kernel eine reibungslose Funktion bietet.k^llfk

Extra: Was ist mit einem Laplace-Kernel?

Wenn Sie einen Laplace-Kernel , ist seine Fourier-Transformation eine Cauchy-Verteilung, die viel langsamer abfällt als die Exponentialverteilung Funktion in der Fourier-Transformation eines Gaußschen Kernels. Dies bedeutet, dass eine Funktion mehr Hochfrequenzkomponenten hat. Infolgedessen ist die von einem Laplace-Kernel gegebene Funktion "rauer" als die von einem Gaußschen Kernel gegebene.k(x,y)=exp(xyσ)f

Was ist eine Eigenschaft des Gaußschen Kernels, die andere Kernel nicht haben?

Unabhängig von der Gaußschen Breite ist eine Eigenschaft, dass der Gaußsche Kern "universal" ist. Intuitiv bedeutet dies, dass bei gegebener begrenzter stetiger Funktion (willkürlich) eine Funktion so dass und nahe beieinander liegen (im Sinne von bis zu beliebiger Genauigkeit erforderlich. Grundsätzlich bedeutet dies, dass der Gaußsche Kern Funktionen liefert, die beliebig gut "schöne" (begrenzte, kontinuierliche) Funktionen approximieren können. Gauß- und Laplace-Kernel sind universell. Ein Polynomkern zum Beispiel ist es nicht.gfHfg)

Warum setzen wir die Norm nicht beispielsweise durch ein Cauchy-PDF und erwarten die gleichen Ergebnisse?

Im Allgemeinen können Sie alles tun, was Sie möchten, solange das resultierende eindeutig positiv ist. Positive Bestimmtheit ist definiert als für alle , und alle (Menge natürlicher Zahlen) . Wenn nicht positiv definit ist, dann entspricht es keinem inneren Produktraum. Die gesamte Analyse wird unterbrochen, da Sie nicht einmal wie erwähnt über einen Funktionsbereich verfügen . Trotzdem kann es empirisch funktionieren. Zum Beispiel der hyperbolische Tangenskern (siehe Nummer 7 auf dieser Seite )ki=1Nj=1Nk(xi,xj)αiαj>0αiR{xi}i=1NNNkH

k(x,y)=tanh(αxy+c)

die sigmoide Aktivierungseinheiten in neuronalen Netzen imitieren soll, ist nur für einige Einstellungen von und positiv bestimmt . Trotzdem wurde berichtet, dass es in der Praxis funktioniert.αc

Was ist mit anderen Funktionen?

Ich sagte, Features sind nicht einzigartig. Für den Gaußschen Kernel bietet die Mercer-Erweiterung eine weitere Reihe von Funktionen . Siehe Abschnitt 4.3.1 des berühmten Gaußschen Prozessbuchs . In diesem Fall sind die Merkmale Hermite-Polynome, die mit bewertet werden .ϕ(x)x


2
Ich bin noch nicht im Begriff, das Kopfgeld zu vergeben, aber ich bin versucht, es dieser Antwort
zuzuweisen

Endlich hat diese Frage eine gute Antwort bekommen! (+1) Die hier verwendete Notation hat mich kurz verwirrt: - und in den folgenden Absätzen. Wäre eine explizitere Notation nicht klarer, wenn man eine Funktion die auf den ursprünglichen Raum wirkt, und einen Vektor trennt , wo eine Funktion ist? Übrigens, welche Funktionen werden von der "Reproduktionseigenschaft" garantiert "reproduziert"? Alle? Ununterbrochen? Glatt? f(x)=f,ϕ(x)f(x)=Ψ(f),ϕ(x)f()Ψ(f)HΨ()
Amöbe sagt Reinstate Monica

@amoeba In der Literatur wird eine Darstellung von nicht von der Funktion selbst unterschieden. Bei Bedarf verwenden sie manchmal für die Darstellung und für eine Funktion. Alle Funktionen im Space haben die Eigenschaft reproducing. Reibungslos oder nicht, das wird vom Kernel festgelegt. :)fff()H
wij

Der Beitrag wurde aktualisiert. Ein bisschen mehr zum Tanh-Kernel hinzugefügt.
Wij

Hmmm, ich glaube, ich bin hier verwirrt. Wir beginnen mit einem Vektorraum , in dem Datenpunkte leben. Dann wählen wir eine positive definite Kern . Dann behaupten wir, dass Satz 1 gilt: kann als Punktprodukt auf einem Hilbert-Raum , so dass , wobei . Okay. Und jetzt sagen Sie, dass jede Funktion die auf wirkt , als Skalarprodukt ihrer DarstellungXxk(,):X×XRkHk(x,y)=ϕ(x),ϕ(y)ϕ:XHf(x)XfHmit ? Ist das richtig? ϕ(x)
Amöbe sagt Reinstate Monica

18

Ich werde mein Bestes tun, um diese Frage zu beantworten, nicht weil ich ein Experte auf dem Gebiet bin (im Gegenteil), sondern weil ich neugierig auf das Gebiet und das Thema bin, kombiniert mit der Idee, dass es eine gute pädagogische Erfahrung sein könnte . Wie auch immer, hier ist das Ergebnis meiner kurzen Amateurforschung zu diesem Thema.

TL; DR : Ich würde die folgende Passage aus dem Forschungspapier "Die Verbindung zwischen Regularisierungsoperatoren und Unterstützungsvektorkernen" als die kurze Antwort auf diese Frage betrachten:

Gaußsche Kerne liefern unter allgemeinen Annahmen zur Glätte in der Regel eine gute Leistung und sollten insbesondere dann berücksichtigt werden, wenn keine zusätzlichen Kenntnisse über die Daten verfügbar sind.

Nun eine ausführliche Antwort (nach meinem besten Verständnis; für mathematische Details verwenden Sie bitte Referenzen).

Wie wir wissen, ist die Hauptkomponentenanalyse (PCA) ein sehr beliebter Ansatz zur Dimensionsreduktion allein und zur anschließenden Klassifizierung von Daten: http://www.visiondummy.com/2014/05/feature-extraction-using-pca . In Situationen jedoch, in denen Daten nichtlineare Abhängigkeiten aufweisen (dh linear untrennbar sind ), ist die herkömmliche PCA nicht anwendbar (funktioniert nicht gut). Für diese Fälle können andere Ansätze verwendet werden, und nichtlineare PCA ist einer davon.

Ansätze, bei denen PCA auf der Verwendung der Kernelfunktion basiert, werden üblicherweise mit einem Überbegriff "Kernel-PCA" ( kPCA ) bezeichnet. Die Verwendung des Kernels mit der Gaußschen Radialbasisfunktion (RBF) ist wahrscheinlich die beliebteste Variante. Dieser Ansatz wird in mehreren Quellen ausführlich beschrieben, aber ich mag eine hervorragende Erklärung von Sebastian Raschka in diesem Blog-Beitrag sehr . Während jedoch die Möglichkeit erwähnt wird, andere Kernelfunktionen als das Gaußsche RBF zu verwenden, konzentriert sich der Beitrag aufgrund seiner Beliebtheit auf das letztere. In diesem netten Blog-Beitrag , in dem die Kernel-Approximationen und der Kernel-Trick vorgestellt werden , wird ein weiterer möglicher Grund für die Beliebtheit des Gaußschen Kernels für PCA genannt: Unendliche Dimensionalität.

Zusätzliche Erkenntnisse finden Sie in mehreren Antworten zu Quora. Insbesondere die Lektüre dieser hervorragenden Diskussion zeigt einige Punkte hinsichtlich möglicher Gründe für die Popularität des Gaußschen Kernels auf, wie folgt.

  • Gaußsche Kerne sind universell :

Gaußsche Kerne sind universelle Kerne, dh ihre Verwendung mit entsprechender Regularisierung garantiert einen global optimalen Prädiktor, der sowohl Schätz- als auch Approximationsfehler eines Klassifikators minimiert.

  • Gaußsche Kerne sind kreisförmig (was führt zu der oben erwähnten unendlichen Dimensionalität?)
  • Gaußsche Kerne können "sehr unterschiedliche Gebiete" darstellen
  • Der folgende Punkt, der die obige Hauptschlussfolgerung stützt, wird besser unter Berufung auf den Autor geliefert:

Der Gaußsche RBF-Kernel ist sehr beliebt und stellt einen guten Standardkernel dar, vor allem, wenn Expertenwissen über Daten und Domänen fehlt, da er auch polynomielle und lineare Kernel subsumiert. Lineare Kerne und Polynomkerne sind ein Sonderfall des Gaußschen RBF-Kernels. Gaußsche RBF-Kernel sind nicht parametrische Modelle, was im Wesentlichen bedeutet, dass die Komplexität des Modells möglicherweise unendlich ist, da die Anzahl der analytischen Funktionen unendlich ist.

  • Gaußsche Kerne sind optimal (zur Glätte lesen Sie hier - derselbe Autor):

Ein Gaußscher Kern ist nur ein Bandpassfilter; es wählt die glatteste Lösung aus. [...] Ein Gaußscher Kern funktioniert am besten, wenn die unendliche Summe von Derivaten höherer Ordnung am schnellsten konvergiert - und das geschieht für die glattesten Lösungen.

Zum Schluss noch ein paar Punkte aus dieser schönen Antwort :

  • Gaußsche Kernel unterstützen unendlich komplexe Modelle
  • Gaußsche Kerne sind flexibler

ANMERKUNGEN:

Der oben erwähnte Punkt, wonach der Gaußsche Kern die optimale Wahl ist, insbesondere wenn keine Vorkenntnisse über die Daten vorliegen, wird durch den folgenden Satz aus dieser CV-Antwort gestützt :

In Ermangelung von Expertenwissen stellt der Radial Basis Function-Kernel einen guten Standard-Kernel dar (sobald Sie festgestellt haben, dass es sich um ein Problem handelt, das ein nicht lineares Modell erfordert).

Für diejenigen, die sich für nicht wesentliche Unterschiede zwischen dem Gaußschen RBF-Kernel und dem Standard-Gaußschen Kernel interessieren, könnte diese Antwort von Interesse sein: https://stats.stackexchange.com/a/79193/31372 .

Für diejenigen, die daran interessiert sind, kPCA zum Vergnügen oder geschäftlich zu implementieren , könnte dieser nette Blog-Beitrag hilfreich sein. Es wurde von einem der Autoren (Schöpfer?) Von Accord.NET geschrieben - einem sehr interessanten .NET-Open-Source-Framework für statistische Analysen, maschinelles Lernen, Signalverarbeitung und vieles mehr.


5
Ich schätze und begrüße den Aufwand, der beim Verfassen dieser Antwort aufgewendet wurde, muss aber gleichzeitig sagen, dass sie aus vielen Quellen zitiert, die nicht sehr maßgeblich sind und nur diese Art von allgemeinen handgewellten Erklärungen liefern, die korrekt sein könnten, aber möglicherweise auch völlig falsch sein. Der RBF-Kernel ist also ein isotroper stationärer Kernel mit einem unendlich dimensionalen reproduzierenden Hilbert-Raum. Gut! Gibt es andere Kernel mit diesen Eigenschaften? Wenn ja, warum wäre RBF besser als alle anderen? Gibt es tatsächlich empirische Belege für die Behauptung, dass RBF solche Konkurrenten übertrifft?
Amöbe sagt Reinstate Monica

@amoeba: Danke für nette Worte. In Bezug auf die Quellen, die ich verwendet habe, hast du teilweise recht - es ist eine Mischung und einige Quellen sind nur Meinungen. Einige Quellen (dh die Blog-Posts) selbst zitieren jedoch solide Papiere. An diesem Punkt war ich mehr von der Qualität einer Erklärung als von ihrer Genauigkeit angezogen. Was Ihre Fragen betrifft, bereite ich mich darauf vor, sie später zu beantworten. Ich muss ein bisschen mehr Theorie lesen. Ich habe bereits Quellen mit empirischer Unterstützung zusammengestellt, benötige aber mehr Zeit für ihre Systematisierung (und etwas Schlaf, :).
Aleksandr Blekh

1
Ich habe das Gefühl, dass die Tatsache, dass der Gaußsche unter realen symmetrischen Verteilungen die maximale Entropie aufweist, eine Rolle in Ihrem ersten Punkt über eine gute Leistung unter der allgemeinen Annahme spielt
Shadowtalker

2
Auch @AleksandrBlekh dies ist eine fantastische Zusammenstellung. Die Leute lumpen über Quora, aber es ist nicht weniger maßgebend, als hier auf eine andere Antwort zu
verlinken

@ssdecontrol: Danke für nette Worte. Schön, dass wir uns auf der gleichen Seite zum Thema befinden. Ich habe einige zusätzliche Informationen, um den Kommentar von Amöbe anzusprechen.
Aleksandr Blekh

8

Lassen Sie mich meine zwei Cent setzen.

Die Art und Weise, wie ich Gauß'sche Kerne betrachte, ist in gewissem Sinne ein Klassifikator für den nächsten Nachbarn. Was ein Gaußscher Kernel tut, ist, dass er jeden Punkt mit der Entfernung zu allen anderen Punkten im Datensatz darstellt. Stellen Sie sich nun Klassifikatoren mit linearen oder polynomialen Grenzen vor, die Grenzen sind auf bestimmte Formen beschränkt. Wenn Sie jedoch auf den nächsten Nachbarn schauen, kann die Grenze praktisch jede Form annehmen. Das ist meiner Meinung nach der Grund, warum wir den Gaußschen Kernel auch als nicht parametrisch betrachten, dh die Grenze in Abhängigkeit von den Daten anpassen. Eine andere Möglichkeit ist, dass der Gaußsche Kernel sich an die lokale Form in einer Region anpasst, ähnlich wie ein nächster Nachbar die Grenze lokal anpasst, indem er den Abstand zu anderen Punkten in der lokalen Region betrachtet.

Ich habe kein mathematisches Argument dafür, aber ich denke, dass die Tatsache, dass der Gaußsche Kern tatsächlich auf einen unendlichen dimensionalen Raum abgebildet wird, etwas mit seinem Erfolg zu tun hat. Für den linearen und den polynomiellen Kern werden die Punktprodukte in endlichen dimensionalen Räumen genommen; daher scheint es mächtiger zu sein, Dinge in einem größeren Raum zu tun. Ich hoffe, jemand hat ein besseres Verständnis für diese Dinge. Das bedeutet auch, dass wenn wir andere Kerne mit unendlichen dimensionalen Räumen finden können, sie auch ziemlich mächtig sein sollten. Leider kenne ich keinen solchen Kernel.

Für Ihren letzten Punkt denke ich, dass Cauchy-PDF oder jedes andere PDF, das in irgendeiner Weise die Entfernung zu anderen Punkten misst, gleich gut funktionieren sollte. Auch hier habe ich kein gutes mathematisches Argument dafür, aber die Verbindung zum nächsten Nachbarn macht dies plausibel.

Bearbeiten:

Im Folgenden finden Sie einige Ideen, wie Sie sich einen Klassifikator vorstellen, der Gauß-Kernel als Klassifikatoren für die nächsten Nachbarn verwendet. Lassen Sie uns zunächst überlegen, was ein Klassifikator für den nächsten Nachbarn tut. Ein Klassifikator für den nächsten Nachbarn ist im Wesentlichen ein Standardklassifikator, der die Abstände zwischen Punkten als Eingaben verwendet. Stellen Sie sich formeller vor, wir erstellen eine Feature-Repräsentation für jeden Punkt im Datensatz, indem wir seinen Abstand zu allen anderen Punkten berechnen. Oben ist eine Abstandsfunktion. Ein Klassifikator für den nächsten Nachbarn sagt dann die Klassenbezeichnung für einen Punkt basierend auf dieser Feature-Darstellung und den Klassenbezeichnungen für die Daten voraus. woϕixi

ϕi=(d(xi,x1),d(xi,x2),,d(xi,xn))
d
pi=f(ϕi,y)
pi ist die Vorhersage für den Datenpunkt und ist ein Vektor von Klassenbeschriftungen für .xiyx1,x2,,xn

Die Art und Weise, wie ich über Kernel denke, ist, dass sie etwas Ähnliches tun. Sie erstellen eine Feature-Repräsentation jedes Punkts unter Verwendung seiner Kernel-Werte mit anderen Punkten im Dataset. Ähnlich wie im Fall des nächsten Nachbarn wäre dies formal gesehen Nun ist die Verbindung zum nächsten Nachbarn ganz offensichtlich; Wenn unsere Kernelfunktion ein Maß ist, das mit den Abstandsmaßen zusammenhängt, die wir in Klassifizierern für nächste Nachbarn verwenden, ähnelt unser kernelbasierter Klassifizierer einem Modell für nächste Nachbarn.

ϕi=(k(xi,x1),k(xi,x2),,k(xi,xn))

Hinweis: Die Klassifikatoren, die wir mit Hilfe von Kerneln trainieren, funktionieren nicht direkt mit diesen Repräsentationen, aber ich denke, das ist, was sie implizit tun.ϕi


Die Interpretation des nächsten Nachbarn ist interessant. Glaubst du, du könntest das ein bisschen erweitern? Ich glaube, ich verstehe es, aber ich bin nicht sicher, ob ich es tue.
Shadowtalker

@ssdecontrol Ich habe einige Kommentare hinzugefügt. Ich hoffe sie sind hilfreich.
goker

6

Der Grund dafür ist, dass die VC- Dimension für Gauß-Kernel unendlich ist und sie daher bei korrekten Werten für die Parameter (Sigma) eine beliebig große Anzahl von Samples korrekt klassifizieren können.

RBFs funktionieren gut, weil sie sicherstellen, dass die Matrix vollen Rang hat. Die Idee ist, dass und Terme außerhalb der Diagonale beliebig klein gemacht werden können, indem der Wert von verringert wird . Beachten Sie, dass der Kernel einem Skalarprodukt im Feature-Space entspricht. In diesem Merkmalsraum ist die Dimension unendlich (unter Berücksichtigung der Reihenexpansion des Exponentials). Man könnte dies so sehen, dass diese Punkte in verschiedenen Dimensionen projiziert werden, so dass Sie sie trennen können.K(xi,xj)K(xi,xi)>0σ

Betrachten Sie im Gegensatz dazu den Fall von linearen Körnern, die nur vier Punkte in der Ebene zerstören können.

Sie können sich dieses Papier ansehen , obwohl es sehr technisch ist. Eines der Standardbücher zu SVMs sollte dieses Konzept zugänglicher machen.


1
'RBFs funktionieren gut, weil sie sicherstellen, dass die Matrix vollen Rang hat': Dies gilt für jede gültige (Mercer-) Kernelfunktion (einschließlich der linearen) -Leistung des RBF. K(xi,xj)
user603

2
Zusätzlich zu dem, was @ user603 gerade geschrieben hat: Gibt es andere beliebte Kernel mit unendlicher VC-Dimension (Dimension des Zielraums)? Wenn ja, sind sie dann so gut wie RBF?
Amöbe sagt Reinstate Monica

2
Ist die VC-Dimension nicht eine Eigenschaft einer Reihe von Klassifizierern, nicht die Eigenschaft eines Kernels?
Wij

2
@ user603: das stimmt nicht. Mercer-Kernel erfordern nur, dass die Kernelmatrix positiv und semidefinit ist. Sie können singulär sein. Zum Beispiel liefert der lineare Kernel tatsächlich singuläre Kernelmatrizen, wenn in Ihrer Menge von Punkten ist. (Natürlich sind die meisten Kerne eindeutig positiv und daher ist dies keine besondere Eigenschaft des Gaußschen RBF.)xi=0
Dougal,
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.