Als «precision-recall» getaggte Fragen

P & R sind eine Möglichkeit, die Relevanz einer Reihe von abgerufenen Instanzen zu messen. Die Genauigkeit ist der Prozentsatz der korrekten Instanzen aller abgerufenen Instanzen. Die Relevanz ist der Prozentsatz der abgerufenen echten Instanzen. Das harmonische Mittel von P & R ist der F1-Score. P & R werden im Data Mining verwendet, um Klassifizierer auszuwerten.

3
Was ist eine gute AUC für eine Präzisionsrückrufkurve?
Da ich einen sehr unausgewogenen Datensatz habe (9% positive Ergebnisse), entschied ich, dass eine Präzisionsrückrufkurve geeigneter ist als eine ROC-Kurve. Ich habe das analoge zusammenfassende Flächenmaß unter der PR-Kurve erhalten (.49, wenn Sie interessiert sind), bin mir aber nicht sicher, wie ich es interpretieren soll. Ich habe gehört, dass .8 …


3
Der Klassifikator „Gut“ hat meine Präzisions-Rückruf-Kurve zerstört. Was ist passiert?
Ich arbeite mit unausgeglichenen Daten, wobei es für jede Klasse = 1 ungefähr 40 Fälle von Klasse = 0 gibt. Ich kann die Klassen anhand einzelner Merkmale vernünftigerweise unterscheiden, und das Training eines naiven Bayes- und SVM-Klassifikators auf 6 Merkmale und ausgewogene Daten ergab eine bessere Unterscheidung (ROC-Kurven unten). Das …

5
Warum definiert f Beta Score Beta so?
Dies ist der F-Beta-Score: Fβ=(1+β2)⋅precision⋅recall(β2⋅precision)+recallFβ=(1+β2)⋅precision⋅recall(β2⋅precision)+recallF_\beta = (1 + \beta^2) \cdot \frac{\mathrm{precision} \cdot \mathrm{recall}}{(\beta^2 \cdot \mathrm{precision}) + \mathrm{recall}} Der Wikipedia-Artikel besagt, dass .FβFβF_\beta "measures the effectiveness of retrieval with respect to a user who attaches β times as much importance to recall as precision" Ich habe die Idee nicht bekommen. Warum …



1
Wie kann die Wahrscheinlichkeitsschwelle eines Klassifikators bei mehreren Klassen angepasst werden? [Duplikat]
Diese Frage hat hier bereits eine Antwort : Wie kann die Wahrscheinlichkeitsvorhersage für mehrere Klassen begrenzt werden, um eine Verwirrungsmatrix zu erhalten? (1 Antwort) Geschlossen vor 3 Monaten . Das Obige ist ein sehr einfaches Beispiel für die Ausgabe eines Wahrscheinlichkeitsklassifizierers für einen Binärklassenfall, entweder 0 oder 1, basierend auf …

3
Hoher Rückruf - Geringe Präzision für unausgeglichenen Datensatz
Ich habe derzeit Probleme beim Analysieren eines Tweet-Datasets mit Support-Vektor-Maschinen. Das Problem ist, dass ich einen unausgeglichenen Binärklassen-Trainingssatz habe (5: 2); Dies wird voraussichtlich proportional zur tatsächlichen Klassenverteilung sein. Bei der Vorhersage erhalte ich eine geringe Genauigkeit (0,47) für die Minderheitsklasse im Validierungssatz. Rückruf ist 0,88. Ich habe versucht, mehrere …



2
Berechnung der Genauigkeit und des Rückrufs in R.
Angenommen, ich erstelle einen logistischen Regressionsklassifikator, der vorhersagt, ob jemand verheiratet oder ledig ist. (1 = verheiratet, 0 = ledig) Ich möchte einen Punkt auf der Präzisionsrückrufkurve auswählen, der mir eine Genauigkeit von mindestens 75% gibt. möchte ich die Schwellenwerte und auswählen , damit:t1t1t_1t2t2t_2 Wenn die Ausgabe meines Klassifikators größer …



2
Wie kann ich die Leistung einer halbüberwachten Lernmethode beurteilen?
Ich arbeite mit einer halbüberwachten Lernaufgabe, bei der ich nur positive und unbeschriftete Daten habe (PU-Lernen). Ich habe einige Algorithmen getestet und möchte deren Leistung bewerten. Für betreutes Lernen verwende ich normalerweise: Fehlklassifizierungsfehler Richtigkeit ROC-Kurven Leistung zu bewerten. Da meine Trainings- und Validierungssätze jedoch nur positive und unbeschriftete Daten enthalten, …
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.