Als «classification» getaggte Fragen

Die statistische Klassifizierung ist das Problem der Identifizierung der Teilpopulation, zu der neue Beobachtungen gehören, bei der die Identität der Teilpopulation unbekannt ist, auf der Grundlage eines Trainingssatzes von Daten, die Beobachtungen enthalten, deren Teilpopulation bekannt ist. Daher zeigen diese Klassifikationen ein variables Verhalten, das statistisch untersucht werden kann.

1
Wie benutzt man einen Entscheidungsstumpf als schwachen Lernenden in Adaboost?
Ich möchte Adaboost mit Decision Stump implementieren. Ist es richtig, in jeder Iteration von Adaboost so viele Entscheidungsstümpfe wie die Funktionen unseres Datensatzes zu treffen? Wenn ich beispielsweise einen Datensatz mit 24 Funktionen habe, sollte ich in jeder Iteration 24 Entscheidungsstumpfklassifizierer haben? Oder sollte ich zufällig einige Funktionen auswählen und …

1
Wie berechnet die Gradientenverstärkung Wahrscheinlichkeitsschätzungen?
Ich habe versucht, den Gradienten zu verstehen, der das Lesen verschiedener Blogs und Websites fördert, und versucht, meine Antwort zu finden, indem ich zum Beispiel den XGBoost-Quellcode durchgesehen habe. Ich kann jedoch keine verständliche Erklärung dafür finden, wie Algorithmen zur Erhöhung des Gradienten Wahrscheinlichkeitsschätzungen erzeugen. Wie berechnen sie die Wahrscheinlichkeiten?

3
Der Klassifikator „Gut“ hat meine Präzisions-Rückruf-Kurve zerstört. Was ist passiert?
Ich arbeite mit unausgeglichenen Daten, wobei es für jede Klasse = 1 ungefähr 40 Fälle von Klasse = 0 gibt. Ich kann die Klassen anhand einzelner Merkmale vernünftigerweise unterscheiden, und das Training eines naiven Bayes- und SVM-Klassifikators auf 6 Merkmale und ausgewogene Daten ergab eine bessere Unterscheidung (ROC-Kurven unten). Das …

5
Warum sollte Binning um jeden Preis vermieden werden?
Deshalb habe ich ein paar Beiträge darüber gelesen, warum Binning immer vermieden werden sollte. Eine beliebte Referenz für diese Behauptung ist dieser Link . Das Hauptproblem besteht darin, dass die Binning-Punkte (oder Cutpoints) sowie der daraus resultierende Informationsverlust eher willkürlich sind und dass Splines bevorzugt werden sollten. Derzeit arbeite ich …

3
Wann würden Sie bei der Klassifizierung eher PCA als LDA verwenden?
Ich lese diesen Artikel über den Unterschied zwischen der Analyse von Hauptkomponenten und der Analyse mehrerer Diskriminanten (lineare Diskriminanzanalyse) und versuche zu verstehen, warum Sie jemals PCA anstelle von MDA / LDA verwenden würden. Die Erklärung ist wie folgt zusammengefasst: Grob gesagt versuchen wir in PCA, die Achsen mit maximalen …

1
Dauern neuronale Netze normalerweise eine Weile, um während des Trainings „einzusteigen“?
Ich versuche, ein tiefes neuronales Netzwerk für die Klassifizierung mithilfe der Rückausbreitung zu trainieren. Insbesondere verwende ich ein Faltungs-Neuronales Netzwerk zur Bildklassifizierung unter Verwendung der Tensor Flow-Bibliothek. Während des Trainings habe ich ein seltsames Verhalten und frage mich nur, ob dies typisch ist oder ob ich möglicherweise etwas falsch mache. …

3
RBF SVM-Anwendungsfälle (vs. logistische Regression und zufällige Gesamtstruktur)
Support Vector Machines mit Radial-Base-Funktionskernel ist ein universell beaufsichtigter Klassifikator. Obwohl ich die theoretischen Grundlagen für diese SVMs und ihre Stärken kenne, sind mir keine Fälle bekannt, in denen sie die bevorzugte Methode sind. Gibt es also eine Klasse von Problemen, bei denen RBF-SVMs anderen ML-Techniken überlegen sind? (Entweder in …

4
Überanpassung mit linearen Klassifikatoren
Heute erklärte unser Professor in der Klasse, dass "eine Überanpassung mit linearen Klassifikatoren nicht möglich ist". Ich halte das für falsch, da selbst lineare Klassifizierer empfindlich auf Ausreißer im Trainingssatz reagieren können - zum Beispiel eine Support Vector Machine mit hartem Rand: Ein einzelner verrauschter Datenpunkt kann ändern, welche Hyperebene …

2
Anwenden von PCA auf Testdaten zu Klassifizierungszwecken
Ich habe kürzlich etwas über die wunderbare PCA gelernt und das in der Scikit-Learn-Dokumentation beschriebene Beispiel ausgeführt . Ich bin interessiert zu wissen, wie ich PCA für Klassifizierungszwecke auf neue Datenpunkte anwenden kann. Nachdem ich PCA in einer zweidimensionalen Ebene (x-, y-Achse) visualisiert habe, sehe ich, dass ich wahrscheinlich eine …

1
ROC-Kurven für unsymmetrische Datensätze
Betrachten Sie eine Eingangsmatrix und einen Binärausgang y .X.XXyyy Eine übliche Methode zur Messung der Leistung eines Klassifikators ist die Verwendung von ROC-Kurven. In einem ROC-Diagramm ist die Diagonale das Ergebnis, das von einem zufälligen Klassifikator erhalten würde. Im Falle einer unsymmetrischen Ausgabe die Leistung eines Zufallsklassifizierers verbessert werden, indem …

2
Warum Adaboost mit Entscheidungsbäumen?
Ich habe ein wenig über das Verbessern von Algorithmen für Klassifizierungsaufgaben und insbesondere von Adaboost gelesen. Ich verstehe, dass der Zweck von Adaboost darin besteht, mehrere "schwache Lernende" aufzunehmen und durch eine Reihe von Iterationen von Trainingsdaten die Klassifizierer dazu zu bringen, Klassen vorherzusagen, bei denen die Modelle wiederholt Fehler …

2
Wie ändere ich den Schwellenwert für die Klassifizierung in R randomForests?
In der gesamten Literatur zur Modellierung der Artenverteilung wird vorgeschlagen, dass bei der Vorhersage des Vorhandenseins / Nichtvorhandenseins einer Art unter Verwendung eines Modells, das Wahrscheinlichkeiten (z. B. RandomForests) ausgibt, die Wahl der Schwellenwahrscheinlichkeit, nach der eine Art tatsächlich als Vorhandensein oder Nichtvorhandensein klassifiziert werden soll, wichtig ist und sollte …

3
Visualisierung der Bayes'schen Anpassungsgüte für die logistische Regression
Für ein Bayes'sches logistisches Regressionsproblem habe ich eine posteriore prädiktive Verteilung erstellt. Ich nehme eine Stichprobe aus der Vorhersageverteilung und erhalte für jede meiner Beobachtungen Tausende von Stichproben von (0,1). Die Visualisierung der Anpassungsgüte ist weniger als interessant, zum Beispiel: Dieses Diagramm zeigt die 10 000 Proben + den beobachteten …

1
Warum haben Anova () und drop1 () unterschiedliche Antworten für GLMMs geliefert?
Ich habe ein GLMM der Form: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Wenn ich benutze drop1(model, test="Chi"), erhalte ich andere Ergebnisse als wenn ich Anova(model, type="III")aus dem Autopaket oder benutze summary(model). Diese beiden letzteren geben die gleichen Antworten. Unter Verwendung einer Reihe …
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 

3
Woher kommt der Begriff „Modell lernen“?
Oft habe ich gehört, dass die Data Miner hier diesen Begriff verwenden. Als Statistiker, der an Klassifizierungsproblemen gearbeitet hat, kenne ich den Begriff "Klassifizierer trainieren" und gehe davon aus, dass "Modell lernen" dasselbe bedeutet. Ich habe nichts gegen den Begriff "einen Klassifikator trainieren". Dies scheint die Idee der Anpassung eines …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.