Ich höre oft von der Bewertung der Leistung eines Klassifizierungsmodells, indem ich den Testsatz aushalte und ein Modell auf dem Trainingssatz trainiere. Erstellen Sie dann zwei Vektoren, einen für die vorhergesagten Werte und einen für die wahren Werte. Ein Vergleich ermöglicht es offensichtlich, die Leistung des Modells anhand seiner Vorhersagekraft …
Ich arbeite an einem Datensatz. Nachdem ich einige Modellidentifikationstechniken angewendet hatte, kam ich mit einem ARIMA (0,2,1) -Modell heraus. Ich habe die detectIOFunktion im Paket TSAin R verwendet, um bei der 48. Beobachtung meines ursprünglichen Datensatzes einen innovativen Ausreißer (IO) zu erkennen . Wie kann ich diesen Ausreißer in mein …
Ich arbeite an der Vorhersage von Zeitreihen. Ich habe zwei Datensätze und . Ich habe drei Vorhersagemodelle: . Alle diese Modelle werden unter Verwendung von Stichproben in Datensatz trainiert , und ihre Leistung wird unter Verwendung der Stichproben in Datensatz gemessen . Angenommen, die Leistungsmetrik ist MSE (oder etwas anderes). …
Grundsätzlich gibt es zwei gängige Methoden, um gegen große Datenmengen zu lernen (wenn Sie mit zeitlichen / räumlichen Einschränkungen konfrontiert sind): Betrug :) - Verwenden Sie nur eine "überschaubare" Teilmenge für das Training. Der Genauigkeitsverlust kann aufgrund des Gesetzes zur Verringerung der Rendite vernachlässigbar sein - die Vorhersageleistung des Modells …
Ich möchte einige meiner Ideen testen, die meiner Meinung nach besser sind als alles, was ich gesehen habe. Ich könnte mich irren, aber ich möchte meine Ideen testen und meine Zweifel durch sicherere Beobachtungen überwinden. Was ich mir überlegt habe, ist Folgendes: Definieren Sie analytisch eine Reihe von Verteilungen. Einige …
Dies könnte eine grundlegende Frage sein: Was ist der Unterschied zwischen Voreingenommenheit und Unteranpassung? Und was ist analog der Unterschied zwischen Varianz und Überanpassung? Bedeuten die Begriffe jedes Paares dasselbe? Wenn nicht, was ist der Unterschied?
Ich habe ein dynamisches naives Bayes-Modell, das auf einigen zeitlichen Variablen trainiert ist. Die Ausgabe des Modells ist die Vorhersage von P(Event) @ t+1, geschätzt bei jedem t. Die Darstellung von P(Event)versus timeist wie in der folgenden Abbildung angegeben. In dieser Abbildung stellt die schwarze Linie dar, P(Event)wie von meinem …
Ich habe Daten mit 2 Klassen, für die ich eine Klassifizierung mit mehreren Klassifizierern durchführe. Und die Datensätze sind gut ausbalanciert. Bei der Beurteilung der Leistung der Klassifikatoren muss berücksichtigt werden, wie genau der Klassifikator nicht nur die wahren Positiven, sondern auch die wahren Negative bestimmt. Wenn ich Genauigkeit verwende …
In meinen Daten habe ich eine Klassenvariable, bezeichnet als . Diese Klassenvariablenwerte sind 0 , 1 (binär). Fast alle Beobachtungen von C sind 0 (nahe 100%, genauer gesagt 97%). Ich möchte einen "Leistungstest" für verschiedene Klassifizierungsmodelle (dies könnte Genauigkeit sein). Was ich befürchte, ist, dass wenn ich ein Klassifizierungsmodell habe, …
Ich arbeite derzeit an einigen Zeitreihendaten. Ich weiß, dass ich das LOESS / ARIMA-Modell verwenden kann. Die Daten werden in einen Vektor mit einer Länge von 1000 geschrieben. Dies ist eine Warteschlange, die alle 15 Minuten aktualisiert wird. Somit werden die alten Daten herausspringen, während die neuen Daten den Vektor …
Für Klassifizierungsprobleme habe ich neuronale Netze verwendet und Fehler vom Typ I und II unter Verwendung der Verwirrungsmatrix und ihrer Maße gemäß dieser Ressource ( Spiegel ) gemessen , was ziemlich einfach ist. Wie würde man bei einem Schätzungsproblem die Modellleistung bewerten? Angenommen, es gibt keine Klassen und die Ausgabe …
Ich bin auf eine Fehlermetrik gestoßen, mit der der Rekonstruktionsfehler eines Modells quantifiziert wurde: wobei der te Datenpunkt ist, die Modellschätzung des ten Datenpunkts ist und der Mittelwert aller Datenpunkte ist. Der Zähler ist der quadratische Gesamtfehler des Modells, und der Nenner ist die quadratische Abweichung vom Mittelwert der Daten. …
Ich bin ziemlich verwirrt darüber, wie ich die AP- oder mAP-Werte berechnen kann, da es anscheinend einige verschiedene Methoden gibt. Ich möchte speziell die AP / mAP-Werte für die Objekterkennung erhalten. Alles was ich sicher weiß ist: Rückruf = TP / (TP + FN), Präzision = TP / (TP + …
Ich arbeite mit einer halbüberwachten Lernaufgabe, bei der ich nur positive und unbeschriftete Daten habe (PU-Lernen). Ich habe einige Algorithmen getestet und möchte deren Leistung bewerten. Für betreutes Lernen verwende ich normalerweise: Fehlklassifizierungsfehler Richtigkeit ROC-Kurven Leistung zu bewerten. Da meine Trainings- und Validierungssätze jedoch nur positive und unbeschriftete Daten enthalten, …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.