shabbychef gab eine sehr klare erklärung aus der sicht der modellkomplexität . Ich werde versuchen, dieses Problem von einem anderen Standpunkt aus zu verstehen, falls es jemandem helfen könnte.
Grundsätzlich wollen wir die Marge in SVC maximieren. Dies ist auch in SVR der Fall, während wir den Vorhersagefehler zur besseren Verallgemeinerung in einer definierten Genauigkeit maximieren möchten . Wenn wir hier den Vorhersagefehler minimieren anstatt zu maximieren, ist es wahrscheinlicher, dass das Vorhersageergebnis für unbekannte Daten überpasst wird. Denken wir an den eindimensionalen Fall "Maximieren des Vorhersagefehlers".e
(xi,yi)y=ωx+bee
|ωxi−yi+b|ω2+1−−−−−√
Right now the numerator is limited to e. To maximize the distance, what we try to do is to minimize ω.
Anyone can easily extend the one-dimensional case to N-dimensional case as the distance equation will always be Euclidean distance.
Additionally, we may have a review on the optimization problem in SVR for the comparison [1].
min12||ω||2
s.t.{yi−<ω,xi>−b≤e<ω,xi>+b−yi≥e
Thanks.
[1] Smola, A., and B. Schölkopf. A tutorial on support vector regression. Statistics and Computing, Vol. 14, No. 3, Aug. 2004, pp. 199–222.