Diese Frage ist eine Antwort auf einen Kommentar, den ich zu einer anderen Frage gesehen habe.
Der Kommentar bezog sich auf den Lehrplan für maschinelles Lernen in Coursera und lautete: "SVMs werden heutzutage nicht mehr so oft verwendet."
Ich habe die relevanten Vorlesungen gerade erst selbst beendet, und mein Verständnis von SVMs ist, dass sie ein robuster und effizienter Lernalgorithmus für die Klassifizierung sind und dass sie, wenn sie einen Kernel verwenden, eine "Nische" haben, die eine Anzahl von Funktionen von vielleicht 10 bis 1000 und mehr abdeckt Anzahl der Trainingsmuster vielleicht 100 bis 10.000. Die Begrenzung für Trainingsmuster liegt darin, dass sich der Kernalgorithmus auf die Optimierung von Ergebnissen konzentriert, die aus einer quadratischen Matrix mit Dimensionen generiert werden, die auf der Anzahl der Trainingsmuster und nicht auf der Anzahl der ursprünglichen Merkmale basieren.
Der Kommentar, den ich gesehen habe, bezieht sich auch auf eine echte Änderung seit dem Kurs, und wenn ja, was ist das für eine Änderung: Ein neuer Algorithmus, der den "Sweet Spot" von SVM genauso gut abdeckt, bessere CPUs, die die Rechenvorteile von SVM bedeuten, sind weniger wert ? Oder ist es vielleicht eine Meinung oder eine persönliche Erfahrung des Kommentators?
Ich habe eine Suche nach zB "Sind Support-Vektor-Maschinen aus der Mode" durchgeführt und nichts gefunden, was darauf schließen lässt, dass sie zugunsten von etwas anderem fallengelassen wurden.
Und Wikipedia hat dies: http://en.wikipedia.org/wiki/Support_vector_machine#Issues . . . Das Hauptproblem scheint die Schwierigkeit zu sein, das Modell zu interpretieren. Das macht SVM gut für eine Black-Box-Vorhersage-Engine, aber nicht so gut für die Generierung von Erkenntnissen. Ich sehe das nicht als großes Problem, sondern als eine weitere Kleinigkeit, die bei der Auswahl des richtigen Tools für den Job berücksichtigt werden muss (zusammen mit der Art der Trainingsdaten und der Lernaufgabe usw.).