Ich habe mich gefragt, ob es möglich ist, eine SVM (sagen wir eine lineare, um die Sache zu vereinfachen) mit Backpropagation zu trainieren.
Derzeit bin ich an einer Straßensperre, weil ich nur daran denken kann, die Ausgabe des Klassifikators als zu schreiben
Wenn wir also versuchen, den "Rückwärtsdurchlauf" (propagierten Fehler) zu berechnen, erhalten wir , da dieAbleitung vonsgn(x)ist dsgn(x)
In ähnlicher Weise stellen wir fest, dass , was bedeutet, dass wir keine Informationen zurückgeben oder Gradientenaktualisierungen durchführen können!
Was gibt?