Als «classification» getaggte Fragen

Die statistische Klassifizierung ist das Problem der Identifizierung der Teilpopulation, zu der neue Beobachtungen gehören, bei der die Identität der Teilpopulation unbekannt ist, auf der Grundlage eines Trainingssatzes von Daten, die Beobachtungen enthalten, deren Teilpopulation bekannt ist. Daher zeigen diese Klassifikationen ein variables Verhalten, das statistisch untersucht werden kann.

1
Zur kophenetischen Korrelation für das Dendrogramm-Clustering
Betrachten Sie den Kontext eines Dendrogramm-Clusters. Nennen wir ursprüngliche Unterschiede die Abstände zwischen den Individuen. Nach der Erstellung des Dendrogramms definieren wir die kophenetische Unähnlichkeit zwischen zwei Individuen als den Abstand zwischen den Clustern, zu denen diese Individuen gehören. Einige Leute denken, dass die Korrelation zwischen den ursprünglichen Unähnlichkeiten und …

3
Vergleich der Genauigkeit zweier verschiedener Modelle anhand der statistischen Signifikanz
Ich arbeite an der Vorhersage von Zeitreihen. Ich habe zwei Datensätze und . Ich habe drei Vorhersagemodelle: . Alle diese Modelle werden unter Verwendung von Stichproben in Datensatz trainiert , und ihre Leistung wird unter Verwendung der Stichproben in Datensatz gemessen . Angenommen, die Leistungsmetrik ist MSE (oder etwas anderes). …


1
Sind MFCCs die optimale Methode zur Darstellung von Musik in einem Abrufsystem?
Eine Signalverarbeitungstechnik, die Mel-Frequenz Cepstrum , wird häufig verwendet, um Informationen aus einem Musikstück zur Verwendung in einer maschinellen Lernaufgabe zu extrahieren. Diese Methode liefert ein kurzfristiges Leistungsspektrum, und die Koeffizienten werden als Eingabe verwendet. Beim Entwerfen von Musikabrufsystemen werden solche Koeffizienten als charakteristisch für ein Stück angesehen (offensichtlich nicht …

4
Verbesserung der SVM-Klassifikation von Diabetes
Ich benutze SVM, um Diabetes vorherzusagen. Ich verwende den BRFSS- Datensatz für diesen Zweck. Der Datensatz hat die Abmessungen und ist verzerrt. Der Prozentsatz von s in der Zielvariablen beträgt während die s die verbleibenden .11 % 89 %432607 × 136432607×136432607 \times 136Y11 %11%11\%N89 %89%89\% Ich verwende nur 15aus 136unabhängigen …

2
K-nächster Nachbar mit stetigen und binären Variablen
Ich habe einen Datensatz mit Spalten a b c(3 Attribute). aist dabei numerisch und stetig bund ckategorisch mit jeweils zwei Ebenen. Ich verwende die K-Nearest Neighbors-Methode zum Klassifizieren aund bWeiter c. Um die Entfernungen messen zu können, transformiere ich meinen Datensatz durch Entfernen bund Hinzufügen von b.level1und b.level2. Wenn die …

4
Ist AUC die Wahrscheinlichkeit, eine zufällig ausgewählte Instanz aus jeder Klasse korrekt zu klassifizieren?
Ich habe diese Bildunterschrift in einer Zeitung gelesen und noch nie irgendwo anders eine so beschriebene AUC gesehen. Ist das wahr? Gibt es einen Beweis oder eine einfache Möglichkeit, dies zu sehen? Fig. 2 zeigt die Vorhersagegenauigkeit dichotomer Variablen, ausgedrückt als Fläche unter der Empfänger-Betriebskennlinie (AUC), die der Wahrscheinlichkeit entspricht, …

3
Wie klassifiziere ich einen unausgeglichenen Datensatz nach Convolutional Neural Networks (CNN)?
Ich habe einen unausgeglichenen Datensatz in einer binären Klassifizierungsaufgabe, bei der die positive Menge gegenüber der negativen Menge 0,3% gegenüber 99,7% beträgt. Die Kluft zwischen Positiven und Negativen ist groß. Wenn ich ein CNN mit der im MNIST-Problem verwendeten Struktur trainiere, zeigt das Testergebnis eine hohe False Negative Rate. Außerdem …



1
Wie kann die Wahrscheinlichkeitsschwelle eines Klassifikators bei mehreren Klassen angepasst werden? [Duplikat]
Diese Frage hat hier bereits eine Antwort : Wie kann die Wahrscheinlichkeitsvorhersage für mehrere Klassen begrenzt werden, um eine Verwirrungsmatrix zu erhalten? (1 Antwort) Geschlossen vor 3 Monaten . Das Obige ist ein sehr einfaches Beispiel für die Ausgabe eines Wahrscheinlichkeitsklassifizierers für einen Binärklassenfall, entweder 0 oder 1, basierend auf …

1
Ist es in Ordnung, die Cross-Entropy-Loss-Funktion mit Soft Labels zu verwenden?
Ich habe ein Klassifizierungsproblem, bei dem Pixel eher mit weichen Beschriftungen (die Wahrscheinlichkeiten bezeichnen) als mit harten 0,1-Beschriftungen gekennzeichnet werden. Früher mit harter 0,1-Pixel-Markierung lieferte die Kreuzentropieverlustfunktion (sigmoidCross entropyLossLayer von Caffe) anständige Ergebnisse. Ist es in Ordnung, die Sigmoid-Kreuzentropie-Verlustschicht (von Caffe) für dieses Problem der weichen Klassifizierung zu verwenden?

3
Hoher Rückruf - Geringe Präzision für unausgeglichenen Datensatz
Ich habe derzeit Probleme beim Analysieren eines Tweet-Datasets mit Support-Vektor-Maschinen. Das Problem ist, dass ich einen unausgeglichenen Binärklassen-Trainingssatz habe (5: 2); Dies wird voraussichtlich proportional zur tatsächlichen Klassenverteilung sein. Bei der Vorhersage erhalte ich eine geringe Genauigkeit (0,47) für die Minderheitsklasse im Validierungssatz. Rückruf ist 0,88. Ich habe versucht, mehrere …



Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.