Als «model-evaluation» getaggte Fragen

Bei der Bewertung von Modellen, entweder innerhalb oder außerhalb der Stichprobe.

1
Bewertung der Leistung eines Regressionsmodells mithilfe von Trainings- und Testsätzen?
Ich höre oft von der Bewertung der Leistung eines Klassifizierungsmodells, indem ich den Testsatz aushalte und ein Modell auf dem Trainingssatz trainiere. Erstellen Sie dann zwei Vektoren, einen für die vorhergesagten Werte und einen für die wahren Werte. Ein Vergleich ermöglicht es offensichtlich, die Leistung des Modells anhand seiner Vorhersagekraft …

1
Wie baue ich einen innovativen Ausreißer bei Beobachtung 48 in mein ARIMA-Modell ein?
Ich arbeite an einem Datensatz. Nachdem ich einige Modellidentifikationstechniken angewendet hatte, kam ich mit einem ARIMA (0,2,1) -Modell heraus. Ich habe die detectIOFunktion im Paket TSAin R verwendet, um bei der 48. Beobachtung meines ursprünglichen Datensatzes einen innovativen Ausreißer (IO) zu erkennen . Wie kann ich diesen Ausreißer in mein …
10 r  time-series  arima  outliers  hypergeometric  fishers-exact  r  time-series  intraclass-correlation  r  logistic  glmm  clogit  mixed-model  spss  repeated-measures  ancova  machine-learning  python  scikit-learn  distributions  data-transformation  stochastic-processes  web  standard-deviation  r  machine-learning  spatial  similarities  spatio-temporal  binomial  sparse  poisson-process  r  regression  nonparametric  r  regression  logistic  simulation  power-analysis  r  svm  random-forest  anova  repeated-measures  manova  regression  statistical-significance  cross-validation  group-differences  model-comparison  r  spatial  model-evaluation  parallel-computing  generalized-least-squares  r  stata  fitting  mixture  hypothesis-testing  categorical-data  hypothesis-testing  anova  statistical-significance  repeated-measures  likert  wilcoxon-mann-whitney  boxplot  statistical-significance  confidence-interval  forecasting  prediction-interval  regression  categorical-data  stata  least-squares  experiment-design  skewness  reliability  cronbachs-alpha  r  regression  splines  maximum-likelihood  modeling  likelihood-ratio  profile-likelihood  nested-models 

3
Vergleich der Genauigkeit zweier verschiedener Modelle anhand der statistischen Signifikanz
Ich arbeite an der Vorhersage von Zeitreihen. Ich habe zwei Datensätze und . Ich habe drei Vorhersagemodelle: . Alle diese Modelle werden unter Verwendung von Stichproben in Datensatz trainiert , und ihre Leistung wird unter Verwendung der Stichproben in Datensatz gemessen . Angenommen, die Leistungsmetrik ist MSE (oder etwas anderes). …

3
Ansätze beim Lernen aus riesigen Datensätzen?
Grundsätzlich gibt es zwei gängige Methoden, um gegen große Datenmengen zu lernen (wenn Sie mit zeitlichen / räumlichen Einschränkungen konfrontiert sind): Betrug :) - Verwenden Sie nur eine "überschaubare" Teilmenge für das Training. Der Genauigkeitsverlust kann aufgrund des Gesetzes zur Verringerung der Rendite vernachlässigbar sein - die Vorhersageleistung des Modells …




2
Klassifikator-Leistungsmaß, das Sensitivität und Spezifität kombiniert?
Ich habe Daten mit 2 Klassen, für die ich eine Klassifizierung mit mehreren Klassifizierern durchführe. Und die Datensätze sind gut ausbalanciert. Bei der Beurteilung der Leistung der Klassifikatoren muss berücksichtigt werden, wie genau der Klassifikator nicht nur die wahren Positiven, sondern auch die wahren Negative bestimmt. Wenn ich Genauigkeit verwende …

5
Wie kann man die Leistung eines Klassifikators messen, wenn fast 100% der Klassenbezeichnungen zu einer Klasse gehören?
In meinen Daten habe ich eine Klassenvariable, bezeichnet als . Diese Klassenvariablenwerte sind 0 , 1 (binär). Fast alle Beobachtungen von C sind 0 (nahe 100%, genauer gesagt 97%). Ich möchte einen "Leistungstest" für verschiedene Klassifizierungsmodelle (dies könnte Genauigkeit sein). Was ich befürchte, ist, dass wenn ich ein Klassifizierungsmodell habe, …

2
Inkrementelles Lernen für das LOESS-Zeitreihenmodell
Ich arbeite derzeit an einigen Zeitreihendaten. Ich weiß, dass ich das LOESS / ARIMA-Modell verwenden kann. Die Daten werden in einen Vektor mit einer Länge von 1000 geschrieben. Dies ist eine Warteschlange, die alle 15 Minuten aktualisiert wird. Somit werden die alten Daten herausspringen, während die neuen Daten den Vektor …

4
Bewertung eines Regressionsmodells
Für Klassifizierungsprobleme habe ich neuronale Netze verwendet und Fehler vom Typ I und II unter Verwendung der Verwirrungsmatrix und ihrer Maße gemäß dieser Ressource ( Spiegel ) gemessen , was ziemlich einfach ist. Wie würde man bei einem Schätzungsproblem die Modellleistung bewerten? Angenommen, es gibt keine Klassen und die Ausgabe …

1
Gibt es einen akzeptierten Namen für diese Fehlermetrik?
Ich bin auf eine Fehlermetrik gestoßen, mit der der Rekonstruktionsfehler eines Modells quantifiziert wurde: wobei der te Datenpunkt ist, die Modellschätzung des ten Datenpunkts ist und der Mittelwert aller Datenpunkte ist. Der Zähler ist der quadratische Gesamtfehler des Modells, und der Nenner ist die quadratische Abweichung vom Mittelwert der Daten. …


2
Wie kann ich die Leistung einer halbüberwachten Lernmethode beurteilen?
Ich arbeite mit einer halbüberwachten Lernaufgabe, bei der ich nur positive und unbeschriftete Daten habe (PU-Lernen). Ich habe einige Algorithmen getestet und möchte deren Leistung bewerten. Für betreutes Lernen verwende ich normalerweise: Fehlklassifizierungsfehler Richtigkeit ROC-Kurven Leistung zu bewerten. Da meine Trainings- und Validierungssätze jedoch nur positive und unbeschriftete Daten enthalten, …
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.