Support Vector Machine bezieht sich auf "eine Reihe verwandter überwachter Lernmethoden, die Daten analysieren und Muster erkennen, die für die Klassifizierungs- und Regressionsanalyse verwendet werden".
Ich habe 2 allgemeine / theoretischere Fragen. 1) Ich bin gespannt, wie SVMs mit variablen Interaktionen umgehen, wenn sie Vorhersagemodelle erstellen. Wenn ich z. B. zwei Funktionen f1 und f2 habe und das Ziel von f1, f2 und f1 * f2 (oder einer Funktion h (f1, f2)) abhängt, passt SVM …
Ich versuche, eine SVM aus Trainingsdaten zu erstellen, bei denen eine Gruppe mehr als die andere vertreten ist. Die Gruppen werden jedoch in den endgültigen Testdaten zu gleichen Teilen vertreten sein. Daher möchte ich den class.weightsParameter der e1071R-Paket-Schnittstelle verwenden libsvm, um den Einfluss der beiden Gruppen auf die Trainingsdaten auszugleichen. …
SVMs zur Klassifizierung machen für mich intuitiv Sinn: Ich verstehe, wie minimierend ||θ||2||θ||2||\theta||^2 ergibt den maximalen Spielraum. Ich verstehe dieses Ziel jedoch nicht im Kontext der Regression. Verschiedene Texte ( hier und hier ) beschreiben dies als Maximierung der "Ebenheit". Warum sollten wir das tun wollen? Was entspricht in der …
Mit dem begrenzten Wissen, das ich über SVM habe, ist es gut für eine kurze und fette Datenmatrix (viele Funktionen und nicht zu viele Instanzen), aber nicht für Big Data.XXX Ich verstehe einen Grund dafür, dass die Kernel-Matrix eine n × n- Matrix ist, wobei n die Anzahl der Instanzen …
Ich habe 12 positive Trainingssätze (Krebszellen, die mit Medikamenten mit jeweils 12 verschiedenen Wirkmechanismen behandelt wurden). Für jeden dieser positiven Trainingssätze möchte ich eine Support-Vektor-Maschine trainieren, um sie von einem negativen Satz gleicher Größe zu unterscheiden, der aus dem Experiment entnommen wurde. Jeder Satz hat zwischen 1000 und 6000 Zellen, …
Ich versuche, den Prozess zum Trainieren einer linearen Unterstützungsvektormaschine zu verstehen . Mir ist klar, dass die Eigenschaften von SMVs es ermöglichen, sie viel schneller zu optimieren als mit einem quadratischen Programmierlöser, aber zu Lernzwecken würde ich gerne sehen, wie dies funktioniert. Trainingsdaten set.seed(2015) df <- data.frame(X1=c(rnorm(5), rnorm(5)+5), X2=c(rnorm(5), rnorm(5)+3), …
Nach meinem Verständnis bestehen CNNs aus zwei Teilen. Der erste Teil (Conv / Pool-Schichten), der die Merkmalsextraktion durchführt, und der zweite Teil (fc-Schichten), der die Klassifizierung aus den Merkmalen vornimmt. Da vollständig verbundene neuronale Netze nicht die besten Klassifizierer sind (dh sie werden die meiste Zeit von SVMs und RFs …
Ich interessiere mich für theoretische Ergebnisse für die Verallgemeinerungsfähigkeit von Support Vector Machines, z. B. Grenzen der Wahrscheinlichkeit von Klassifizierungsfehlern und der Vapnik-Chervonenkis (VC) -Dimension dieser Maschinen. Beim Lesen der Literatur hatte ich jedoch den Eindruck, dass sich einige ähnliche wiederkehrende Ergebnisse von Autor zu Autor geringfügig unterscheiden, insbesondere in …
Beim maschinellen Lernen (für Regressionsprobleme) sehe ich häufig, dass der mittlere quadratische Fehler (MSE) oder der mittlere absolute Fehler (MAE) als Fehlerfunktion zum Minimieren verwendet werden (plus Regularisierungsterm). Ich frage mich, ob es Situationen gibt, in denen die Verwendung des Korrelationskoeffizienten angemessener wäre. Wenn eine solche Situation vorliegt, dann: In …
Ich kenne die Grundlagen zu SVM und SVR, verstehe aber immer noch nicht, wie das Problem, eine Hyperebene zu finden, die den Spielraum maximiert, in SVR passt. Zweitens habe ich etwas über gelesen, das als Toleranzspielraum in SVR verwendet wird. Was bedeutet es?ϵϵ\epsilon Drittens gibt es einen Unterschied zwischen den …
Die optimale Hyperebene in SVM ist definiert als: w⋅x+b=0,w⋅x+b=0,\mathbf w \cdot \mathbf x+b=0, wobei den Schwellenwert darstellt. Wenn wir eine Abbildung ϕ haben, die den Eingaberaum auf einen Raum Z abbildet , können wir SVM in dem Raum Z definieren , in dem die optimale Hiperplane ist:bbbϕϕ\mathbf \phiZZZZZZ w⋅ϕ(x)+b=0.w⋅ϕ(x)+b=0.\mathbf w …
In dieser Frage - Gibt es eine Methode zum Erstellen von Entscheidungsbäumen, die strukturierte / hierarchische / mehrstufige Prädiktoren berücksichtigt? - Sie erwähnen eine Paneldatenmethode für Bäume. Gibt es spezielle Paneldatenmethoden zur Unterstützung von Vektormaschinen und neuronalen Netzen? Wenn ja, können Sie einige Artikel zu den Algorithmen und (falls verfügbar) …
Ich weiß, dass Adaboost versucht, einen starken Klassifikator unter Verwendung einer linearen Kombination einer Reihe schwacher Klassifikatoren zu erzeugen. Ich habe jedoch einige Artikel gelesen, in denen darauf hingewiesen wird, dass Adaboost und SVMs unter bestimmten Bedingungen und in bestimmten Fällen harmonisch funktionieren (obwohl SVM ein starker Klassifikator ist) . …
Ich möchte einen Klassifikator, z. B. SVM, eine zufällige Gesamtstruktur oder einen anderen Klassifikator trainieren. Eine der Funktionen im Datensatz ist eine kategoriale Variable mit 1000 Ebenen. Was ist der beste Weg, um die Anzahl der Ebenen in dieser Variablen zu reduzieren. In R gibt es eine Funktion combine.levels()im Hmisc- …
Mein Verständnis von SVM ist, dass es einer logistischen Regression (LR) sehr ähnlich ist, dh eine gewichtete Summe von Merkmalen wird an die Sigmoidfunktion übergeben, um eine Wahrscheinlichkeit der Zugehörigkeit zu einer Klasse zu erhalten, jedoch anstelle des Verlusts der Kreuzentropie (logistisch) Funktion wird das Training mit dem Scharnierverlust durchgeführt. …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.