Als «svm» getaggte Fragen

Support Vector Machine bezieht sich auf "eine Reihe verwandter überwachter Lernmethoden, die Daten analysieren und Muster erkennen, die für die Klassifizierungs- und Regressionsanalyse verwendet werden".



3
Der Klassifikator „Gut“ hat meine Präzisions-Rückruf-Kurve zerstört. Was ist passiert?
Ich arbeite mit unausgeglichenen Daten, wobei es für jede Klasse = 1 ungefähr 40 Fälle von Klasse = 0 gibt. Ich kann die Klassen anhand einzelner Merkmale vernünftigerweise unterscheiden, und das Training eines naiven Bayes- und SVM-Klassifikators auf 6 Merkmale und ausgewogene Daten ergab eine bessere Unterscheidung (ROC-Kurven unten). Das …

3
RBF SVM-Anwendungsfälle (vs. logistische Regression und zufällige Gesamtstruktur)
Support Vector Machines mit Radial-Base-Funktionskernel ist ein universell beaufsichtigter Klassifikator. Obwohl ich die theoretischen Grundlagen für diese SVMs und ihre Stärken kenne, sind mir keine Fälle bekannt, in denen sie die bevorzugte Methode sind. Gibt es also eine Klasse von Problemen, bei denen RBF-SVMs anderen ML-Techniken überlegen sind? (Entweder in …

1
Einschichtiges NeuralNetwork mit ReLU-Aktivierung gleich SVM?
Angenommen, ich habe ein einfaches einschichtiges neuronales Netzwerk mit n Eingängen und einem einzelnen Ausgang (binäre Klassifizierungsaufgabe). Wenn ich die Aktivierungsfunktion im Ausgabeknoten als Sigmoidfunktion einstelle, ist das Ergebnis ein Klassifikator für die logistische Regression. Wenn ich in demselben Szenario die Ausgangsaktivierung auf ReLU (gleichgerichtete Lineareinheit) ändere, ist die resultierende …

1
Wie kann man ein einfaches Perzeptron kernelisieren?
Klassifizierungsprobleme mit nichtlinearen Grenzen können nicht mit einem einfachen Perzeptron gelöst werden . Der folgende R-Code dient nur zur Veranschaulichung und basiert auf diesem Beispiel in Python. nonlin <- function(x, deriv = F) { if (deriv) x*(1-x) else 1/(1+exp(-x)) } X <- matrix(c(-3,1, -2,1, -1,1, 0,1, 1,1, 2,1, 3,1), ncol=2, …



2
Die Ausgabe von Scikit SVM in der Klassifizierung mehrerer Klassen ergibt immer die gleiche Bezeichnung
Ich verwende derzeit Scikit Learn mit dem folgenden Code: clf = svm.SVC(C=1.0, tol=1e-10, cache_size=600, kernel='rbf', gamma=0.0, class_weight='auto') und passen Sie dann einen Datensatz mit 7 verschiedenen Beschriftungen an und sagen Sie ihn voraus. Ich habe eine seltsame Ausgabe. Unabhängig davon, welche Kreuzvalidierungstechnik ich verwende, wird das vorhergesagte Etikett auf dem …

2
Wie wähle ich die Trainings-, Kreuzvalidierungs- und Testsatzgrößen für kleine Daten mit Stichprobengröße aus?
Angenommen, ich habe eine kleine Stichprobengröße, z. B. N = 100, und zwei Klassen. Wie soll ich die Trainings-, Kreuzvalidierungs- und Testsatzgrößen für maschinelles Lernen auswählen? Ich würde intuitiv auswählen Trainingsset Größe als 50 Kreuzvalidierungssatz Größe 25 und Testgröße als 25. Aber wahrscheinlich macht das mehr oder weniger Sinn. Wie …

1
Wie baue ich einen innovativen Ausreißer bei Beobachtung 48 in mein ARIMA-Modell ein?
Ich arbeite an einem Datensatz. Nachdem ich einige Modellidentifikationstechniken angewendet hatte, kam ich mit einem ARIMA (0,2,1) -Modell heraus. Ich habe die detectIOFunktion im Paket TSAin R verwendet, um bei der 48. Beobachtung meines ursprünglichen Datensatzes einen innovativen Ausreißer (IO) zu erkennen . Wie kann ich diesen Ausreißer in mein …
10 r  time-series  arima  outliers  hypergeometric  fishers-exact  r  time-series  intraclass-correlation  r  logistic  glmm  clogit  mixed-model  spss  repeated-measures  ancova  machine-learning  python  scikit-learn  distributions  data-transformation  stochastic-processes  web  standard-deviation  r  machine-learning  spatial  similarities  spatio-temporal  binomial  sparse  poisson-process  r  regression  nonparametric  r  regression  logistic  simulation  power-analysis  r  svm  random-forest  anova  repeated-measures  manova  regression  statistical-significance  cross-validation  group-differences  model-comparison  r  spatial  model-evaluation  parallel-computing  generalized-least-squares  r  stata  fitting  mixture  hypothesis-testing  categorical-data  hypothesis-testing  anova  statistical-significance  repeated-measures  likert  wilcoxon-mann-whitney  boxplot  statistical-significance  confidence-interval  forecasting  prediction-interval  regression  categorical-data  stata  least-squares  experiment-design  skewness  reliability  cronbachs-alpha  r  regression  splines  maximum-likelihood  modeling  likelihood-ratio  profile-likelihood  nested-models 


4
Verbesserung der SVM-Klassifikation von Diabetes
Ich benutze SVM, um Diabetes vorherzusagen. Ich verwende den BRFSS- Datensatz für diesen Zweck. Der Datensatz hat die Abmessungen und ist verzerrt. Der Prozentsatz von s in der Zielvariablen beträgt während die s die verbleibenden .11 % 89 %432607 × 136432607×136432607 \times 136Y11 %11%11\%N89 %89%89\% Ich verwende nur 15aus 136unabhängigen …

1
Signifikanz von (GAM) Regressionskoeffizienten, wenn die Modellwahrscheinlichkeit nicht signifikant höher als Null ist
Ich führe eine GAM-basierte Regression mit dem R-Paket gamlss durch und gehe von einer Null- Inflations -Beta-Verteilung der Daten aus. Ich habe nur eine einzige erklärende Variable in meinem Modell, also ist es im Grunde : mymodel = gamlss(response ~ input, family=BEZI). Der Algorithmus gibt mir den Koeffizienten für den …

2
Welche Kernel-Methode liefert die besten Wahrscheinlichkeitsausgaben?
Kürzlich habe ich Platt's Skalierung von SVM-Ausgaben verwendet, um die Wahrscheinlichkeiten von Standardereignissen abzuschätzen. Direktere Alternativen scheinen "Kernel Logistic Regression" (KLR) und die zugehörige "Import Vector Machine" zu sein. Kann jemand sagen, welche Kernel-Methode, die Wahrscheinlichkeitsausgaben liefert, derzeit Stand der Technik ist? Gibt es eine R-Implementierung von KLR? Vielen Dank …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.