Generalisierungsgrenzen für SVM


11

Ich interessiere mich für theoretische Ergebnisse für die Verallgemeinerungsfähigkeit von Support Vector Machines, z. B. Grenzen der Wahrscheinlichkeit von Klassifizierungsfehlern und der Vapnik-Chervonenkis (VC) -Dimension dieser Maschinen. Beim Lesen der Literatur hatte ich jedoch den Eindruck, dass sich einige ähnliche wiederkehrende Ergebnisse von Autor zu Autor geringfügig unterscheiden, insbesondere in Bezug auf die technischen Bedingungen, die für eine bestimmte Bindung erforderlich sind.

Im Folgenden werde ich mich an die Struktur des SVM-Problems und an Zustand 3 der wichtigsten Verallgemeinerungsergebnisse erinnern, die ich in der einen oder anderen Form immer wieder gefunden habe ich gebe 3 Hauptreferenzen während der gesamten Darstellung.

Problemstellung :

Angenommen, wir haben eine Datenstichprobe von unabhängigen und identisch verteilten (iid) Paaren (xi,yi)1in wobei für alle i , xiRp und yi{1,1} . Wir konstruieren eine Support Vector Machine (SVM), die den minimalen Rand m zwischen der durch { x : w x + b = 0 definierten trennenden Hyperebene maximiert , w {x:wx+b=0} undb R und der nächstgelegene Punkt zwischen x 1 ,, x n , um die beiden durchy=-1undy=1definierten Klassen zu trennen. Wir lassen die SVM einige Fehler durch einen weichen Rand zulassen, indemwirSlack-Variablen ξ 1 ,, ξ n einführen-aber zur Vereinfachung der Notation ignorieren wir die Möglichkeit von Kerneln. Die Lösungsparameter w wRpbRx1,,xny=1y=1ξ1,,ξn w und b werden durch Lösen des folgenden konvexen quadratischen Optimierungsprogramms erhalten:

minw,b,ξ1,,ξn12w2+Ci=1nξis.t.:yi(wxi+b)1ξi,i{1,,n}ξi0,i{1,,n}

Wir sind an der Generalisierungsfähigkeit dieser Maschine interessiert.

Vapnik-Chervonenkis-Dimension VC :

Ein erstes Ergebnis ist (Vapnik, 2000) zu verdanken, in dem er die VC-Dimension einer trennenden Hyperebene begrenzt, Satz 5.1. Wenn wir , haben wir:R=maxxixi

VCmin((Rm)2,p)+1

Dieses Ergebnis findet sich erneut in (Burges, 1998), Satz 6. Es scheint jedoch, dass der Satz von Burges restriktiver ist als das gleiche Ergebnis von Vapnik, da er eine spezielle Kategorie von Klassifikatoren definieren muss, die als lückentolerante Klassifikatoren bekannt sind zu dem die SVM gehört - , um den Satz zu formulieren.

Grenzen der Fehlerwahrscheinlichkeit :

In (Vapnik, 2000) gibt Satz 5.2 auf Seite 139 die folgende Grenze für die SVM-Generalisierungsfähigkeit:

E[Perror]1nE[min(p,nSV,(Rw)2)]

Dabei ist die Anzahl der Unterstützungsvektoren der SVM. Diese Ergebnisse scheinen wieder in (Burges, 1998), Gleichungen (86) bzw. (93) zu finden zu sein. Aber auch hier scheint sich Burges von Vapnik zu unterscheiden, da er die Komponenten innerhalb der oben genannten Minimalfunktion in verschiedenen Theoremen mit unterschiedlichen Bedingungen trennt.nSV

Ein weiteres Ergebnis, das in (Vapnik, 2000), S. 133, erscheint, ist das folgende. Unter der Annahme, dass für alle , x i 2R 2 und h V C und ϵ ϵ [ 0 , 1 ] gilt , definieren wir ζ als gleich:ixi2R2hVCϵ[0,1]ζ

ζ=4h(ln2nh+1)lnϵ4n

Wir definieren auch als die Anzahl der vom SVM falsch klassifizierten Trainingsbeispiele. Dann mit einer Wahrscheinlichkeit von 1 - ε können wir behaupten , dass die Wahrscheinlichkeit , dass ein Testbeispiel wird nicht korrekt durch den getrennt wird m * -margin Hyperebene - dh SVM mit Marge m * - hat die gebunden:nError1- -ϵm- -m - -

P.ErrornErrorn+ζ2(1+1+4nErrornζ)

In (Hastie, Tibshirani und Friedman, 2009), S. 438, wird jedoch ein sehr ähnliches Ergebnis gefunden:

ErrorPrüfungζ

Fazit :

Es scheint mir, dass zwischen diesen Ergebnissen ein gewisser Konflikt besteht. Andererseits sind zwei dieser Referenzen, obwohl sie in der SVM-Literatur kanonisch sind, etwas alt (1998 und 2000), insbesondere wenn man bedenkt, dass die Erforschung des SVM-Algorithmus Mitte der neunziger Jahre begann.

Meine Fragen sind:

  • Sind diese Ergebnisse heute noch gültig oder haben sie sich als falsch erwiesen?
  • Wurden seitdem engere Grenzen mit relativ lockeren Bedingungen abgeleitet? Wenn ja, von wem und wo kann ich sie finden?
  • Gibt es schließlich ein Referenzmaterial, das die wichtigsten Verallgemeinerungsergebnisse zur SVM synthetisiert?

Referenzen :

Burges, JC (1998). "Ein Tutorial zur Unterstützung von Vektormaschinen für die Mustererkennung", Data Mining und Knowledge Discovery , 2: 121-167

Hastie, T., Tibshirani, R. und Friedman, J. (2009). Die Elemente des statistischen Lernens , 2. Auflage, Springer

Vapnik, VN (1998). Statistical Learning Theory , 1. Auflage, John Wiley & Sons

Vapnik, VN (1999). "Ein Überblick über die statistische Lerntheorie", IEEE Transactions on Neural Networks , 10 (5): 988-999

Vapnik, VN (2000). Die Natur der statistischen Lerntheorie , 2. Auflage, Springer


Eine Referenz, die die Risikobegrenzungen für SVMs nach dem Stand der Technik (Stand 2008) zusammenfasst: "Support Vector Machines" (Ingo Steinwart, Andreas Christmann, Springer 2008) .
Registrieren Sie sich

Antworten:


3

Ich kenne die Literatur, auf die Sie sich beziehen, nicht im Detail, aber ich denke, eine umfassende Zusammenfassung der Verallgemeinerungsgrenzen, die auf dem neuesten Stand sein sollten, finden Sie bei Boucheron et al. (2004) (Link: https://www.researchgate.net/profile/Olivier_Bousquet/publication/238718428_Advanced_Lectures_on_Machine_Learning_ML_Summer_Schools_2003_Canberra_Australia_February_2-14_2003_Tubingen_Germany_August_4-16_2003_Revised_Lectures/links/02e7e52c5870850311000000/Advanced-Lectures-on-Machine-Learning-ML-Summer-Schools-2003- Canberra-Australien-Februar-2-14-2003-Tübingen-Deutschland-August-4-16-2003-Überarbeitete-Vorlesungen.pdf # page = 176 )

Ich werde einen Teil der SVM skizzieren, der im Folgenden gebunden ist, wobei Details und Beweise weggelassen werden.

Bevor wir speziell auf die SVM-Bindung eingehen, müssen wir verstehen, was die Generalisierungsgrenzen erreichen wollen.

Nehmen wir zunächst an, dass die wahre Wahrscheinlichkeit ist, dann wäre der Bayes-Klassifikator der bestmögliche Klassifikator, dh g = { + 1P.(Y.=+1|X.=x)

G={+1  ichfP.(Y.=1|X.=x)>0,5- -1  Ötherwichse

Das Ziel der statistischen Lerntheorie ist nun den Unterschied zwischen einem Klassifikator der Klasse zu finden (zB SVM) g n = a r g min g C L n ( g ) und die Bayes - Klassifikator dh L ( g n ) - L ( g * ) = L ( g n ) - L ( g * c ) + L ( g *C.

G^n=einrGMindestGC.L.n(G)
Es ist zu beachten, dassL(g)=El(g(X),Y)der erwartete Verlust bei gegebenen Daten ist undgcder bestmögliche Klassifikator in der ModellklasseC ist. Der AusdruckZ=:L(g*)-L(gn)
L.(G^n)- -L.(G)=L.(G^n)- -L.(Gc)+L.(Gc)- -L.(G).
L.(G)=E.l(G(X.),Y.)GcC.Z.=:L.(G)- -L.(G^n)wird Schätzfehler genannt und oft der Fokus, weil er viel einfacher begrenzt werden kann als der Approximationsfehler (der andere Begriff). Ich werde hier auch den Approximationsfehler weglassen.

Der Schätzfehler kann mit Z = Z - E Z + E Z weiter zerlegt werden . Dies kann nun durch zwei Schritte begrenzt werden:Z.

Z.=Z.- -E.Z.+E.Z..
  1. Gebundenes Verwendung der McDiarmid-UngleichungZ.- -E.Z.

  2. E.Z.R.n(C.)=E.supGC.|1/.nich=1nl(G(X.ich),Y.ich)|

B.

Z.- -E.Z.2B.ln(1/.δ)2n,
δ
E.Z.2R.n(C.),
R.n(C.)λL.R./.n,

λL.=1B.=1+λR.
L.(G^n)- -L.(Gc)2(1+λR.)ln(1/.δ)2n+4λL.R./.n
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.