Welche Beziehung besteht zwischen einer SVM und einem Scharnierverlust?


9

Mein Kollege und ich versuchen, uns mit dem Unterschied zwischen logistischer Regression und einer SVM auseinanderzusetzen. Offensichtlich optimieren sie verschiedene Zielfunktionen. Ist eine SVM so einfach wie zu sagen, dass sie ein diskriminierender Klassifikator ist, der einfach den Scharnierverlust optimiert? Oder ist es komplexer als das? Wie kommen die Unterstützungsvektoren ins Spiel? Was ist mit den Slack-Variablen? Warum können Sie keine tiefen SVMs haben, wie Sie kein tiefes neuronales Netzwerk mit Sigmoid-Aktivierungsfunktionen haben können?

Antworten:


10

Hier ist mein Versuch, Ihre Fragen zu beantworten:

  • Ist eine SVM so einfach wie zu sagen, dass sie ein diskriminierender Klassifikator ist, der einfach den Scharnierverlust optimiert? Oder ist es komplexer als das? Ja, das kannst du sagen. Vergessen Sie auch nicht, dass es auch das Modell reguliert. Ich würde nicht sagen, dass SVM komplexer ist, es ist jedoch wichtig zu erwähnen, dass alle diese Entscheidungen (z. B. Scharnierverlust und L2 -Regulierung) präzise mathematische Interpretationen haben und nicht willkürlich sind. Das macht SVMs so beliebt und leistungsstark. Beispielsweise ist der Scharnierverlust eine kontinuierliche und konvexe Obergrenze für den Aufgabenverlust, der bei binären Klassifizierungsproblemen der 0/1 Verlust ist. Beachten Sie, dass 0/1Verlust ist nicht konvex und diskontinuierlich. Die Konvexität des Scharnierverlusts macht das gesamte Trainingsziel von SVM konvex. Die Tatsache, dass es sich um eine Obergrenze für den Aufgabenverlust handelt, garantiert, dass der Minimierer der Grenze keinen schlechten Wert für den Aufgabenverlust hat. L2 -Regularisierung kann geometrisch als Randgröße interpretiert werden.

  • DSV(D)DDDSV(D)

  • d(w,D)wDwDd(w,D)=min(x,y)DywTx||w||2wy{+1,1}

  • Warum kannst du keine tiefen SVMs haben? Das SVM-Ziel ist konvex. Genauer gesagt ist es stückweise quadratisch; liegt daran, dass der Regularisierer quadratisch ist und der Scharnierverlust stückweise linear ist. Die Trainingsziele in tiefen hierarchischen Modellen sind jedoch viel komplexer. Insbesondere sind sie nicht konvex. Natürlich kann man ein hierarchisches Unterscheidungsmodell mit Scharnierverlust und Regularisierung usw. , aber es würde nicht als SVM bezeichnet. Tatsächlich wird der Gelenkverlust üblicherweise in DNNs (Deep Neural Networks) für Klassifizierungsprobleme verwendet.L2L2

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.