Support Vector Machines (SVM) sind ein beliebter überwachter Algorithmus für maschinelles Lernen, der zur Klassifizierung oder Regression verwendet werden kann.
Ich versuche, SVR mit Scikit Learn (Python) auf einem Trainingsdatensatz mit 595605 Zeilen und 5 Spalten (Features) und einem Testdatensatz mit 397070 Zeilen auszuführen. Die Daten wurden vorverarbeitet und reguliert. Ich kann die Testbeispiele erfolgreich ausführen. Wenn ich jedoch meinen Datensatz verwende und ihn länger als eine Stunde laufen lasse, …
Diese Frage ist eine Antwort auf einen Kommentar, den ich zu einer anderen Frage gesehen habe. Der Kommentar bezog sich auf den Lehrplan für maschinelles Lernen in Coursera und lautete: "SVMs werden heutzutage nicht mehr so oft verwendet." Ich habe die relevanten Vorlesungen gerade erst selbst beendet, und mein Verständnis …
Wenn würde man verwenden , Random Forestüber , SVMund umgekehrt? Ich verstehe das cross-validationund der Modellvergleich ist ein wichtiger Aspekt bei der Auswahl eines Modells, aber hier möchte ich mehr über Faustregeln und Heuristiken der beiden Methoden erfahren. Kann jemand bitte die Feinheiten, Stärken und Schwächen der Klassifikatoren sowie die …
Wie berechnet man den mAP (Mean Average Precision) für die Erkennungsaufgabe der Pascal VOC-Bestenlisten? http://host.robots.ox.ac.uk:8080/leaderboard/displaylb.php?challengeid=11&compid=4 Dort heißt es - auf Seite 11 : http://homepages.inf.ed.ac.uk/ckiw/postscript/ijcv_voc09.pdf Durchschnittliche Präzision (AP). Für die VOC2007-Herausforderung wurde die interpolierte Durchschnittsgenauigkeit (Salton und Mcgill 1986) verwendet, um sowohl die Klassifizierung als auch die Erkennung zu bewerten. Für …
Ich habe kürzlich angefangen zu lernen, mit sklearnetwas zu arbeiten und bin gerade auf dieses merkwürdige Ergebnis gestoßen. Ich habe den digitsverfügbaren Datensatz verwendet sklearn, um verschiedene Modelle und Schätzmethoden auszuprobieren. Als ich ein Support Vector Machine-Modell mit den Daten getestet habe, stellte ich fest, dass es zwei verschiedene Klassen …
Welche Merkmale oder Eigenschaften weisen darauf hin, dass ein bestimmtes Lernproblem mithilfe von Support-Vektor-Maschinen gelöst werden kann? Mit anderen Worten, was ist es, was Sie dazu bringt, wenn Sie ein Lernproblem sehen: "Oh, ich sollte auf jeden Fall SVMs für dieses" "verwenden, anstatt neuronale Netze oder Entscheidungsbäume oder irgendetwas anderes?
Ich benutze das OpenCV-Beispiel letter_recog.cpp, um mit zufälligen Bäumen und anderen Klassifikatoren zu experimentieren. In diesem Beispiel sind sechs Klassifikatoren implementiert - Random Tree, Boosting, MLP, kNN, naive Bayes und SVM. Es wird ein UCI-Brieferkennungsdatensatz mit 20000 Instanzen und 16 Funktionen verwendet, den ich zum Trainieren und Testen in zwei …
Ich habe ein Problem mit der binären Klassifizierung: Ca. 1000 Proben im Trainingsset 10 Attribute, einschließlich binär, numerisch und kategorisch Welcher Algorithmus ist die beste Wahl für diese Art von Problem? Standardmäßig beginne ich mit SVM (vorläufig werden die nominalen Attributwerte in binäre Features konvertiert), da dies als das Beste …
Ich erstelle einen corr()DF aus einem Original-DF. Die corr()df herauskommen 70 X 70 , und es ist unmöglich , die Heatmap sichtbar zu machen ... sns.heatmap(df). Wenn ich versuche, das anzuzeigen corr = df.corr(), passt die Tabelle nicht auf den Bildschirm und ich kann alle Zusammenhänge sehen. Ist es eine …
Ich bin ein Anfänger im maschinellen Lernen. In SVM ist die trennende Hyperebene definiert als . Warum sagen wir Vektor w orthogonal zur trennenden Hyperebene?y= wT.x + by=wTx+by = w^T x + bwww
Gibt es Faustregeln (oder tatsächliche Regeln) für die minimale, maximale und "angemessene" Anzahl von LSTM-Zellen, die ich verwenden sollte? Insbesondere beziehe ich mich auf BasicLSTMCell von TensorFlow und num_unitsEigenschaft. Bitte nehmen Sie an, dass ich ein Klassifizierungsproblem habe, das definiert ist durch: t - number of time steps n - …
Ich verwende derzeit SVM und skaliere meine Trainingsfunktionen auf den Bereich von [0,1]. Ich passe zuerst mein Trainingsset an / transformiere es und wende dann dieselbe Transformation auf mein Testset an. Zum Beispiel: ### Configure transformation and apply to training set min_max_scaler = MinMaxScaler(feature_range=(0, 1)) X_train = min_max_scaler.fit_transform(X_train) ### Perform …
Was passiert, wenn wir eine grundlegende Support-Vektor-Maschine (linearer Kernel und kein Soft-Margin) auf nicht linear trennbaren Daten trainieren? Das Optimierungsproblem ist nicht realisierbar. Was gibt der Minimierungsalgorithmus zurück?
Wie ändert das Variieren des Regularisierungsparameters in einer SVM die Entscheidungsgrenze für einen nicht trennbaren Datensatz? Eine visuelle Antwort und / oder ein Kommentar zu den einschränkenden Verhaltensweisen (für große und kleine Regularisierung) wäre sehr hilfreich.
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.