Als «model-selection» getaggte Fragen

Die Modellauswahl ist ein Problem bei der Beurteilung, welches Modell aus einem Satz am besten funktioniert. Beliebte Methoden sindR.2, AIC- und BIC-Kriterien, Testsätze und Kreuzvalidierung. In gewissem Maße ist die Merkmalsauswahl ein Teilproblem der Modellauswahl.


6
Vergleichen Sie das R-Quadrat aus zwei verschiedenen Random Forest-Modellen
Ich verwende das randomForest-Paket in R, um ein zufälliges Waldmodell zu entwickeln und zu versuchen, ein kontinuierliches Ergebnis in einem "breiten" Datensatz mit mehr Prädiktoren als Stichproben zu erklären. Insbesondere passe ich ein RF-Modell an, mit dem das Verfahren aus einem Satz von ~ 75 Prädiktorvariablen auswählen kann, die ich …

2
Gibt es eine Modellanpassungsstatistik (wie AIC oder BIC), die für absolute statt nur für relative Vergleiche verwendet werden kann?
Ich bin mit dieser Literatur nicht so vertraut. Bitte verzeihen Sie mir, wenn dies eine offensichtliche Frage ist. Da AIC und BIC von der Maximierung der Wahrscheinlichkeit abhängen, können sie anscheinend nur verwendet werden, um relative Vergleiche zwischen einer Reihe von Modellen anzustellen, die versuchen, zu einem bestimmten Datensatz zu …




1
Welches Deep-Learning-Modell kann Kategorien klassifizieren, die sich nicht gegenseitig ausschließen?
Beispiele: Ich habe einen Satz in der Stellenbeschreibung: "Java Senior Engineer in UK". Ich möchte ein Deep-Learning-Modell verwenden, um es als zwei Kategorien vorherzusagen: English und IT jobs. Wenn ich ein traditionelles Klassifizierungsmodell verwende, kann es nur 1 Etikett mit softmaxFunktion auf der letzten Ebene vorhersagen . Somit kann ich …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

2
Warum werden Informationskriterien (nicht angepasstes
In Zeitreihenmodellen wie ARMA-GARCH werden zur Auswahl einer geeigneten Verzögerung oder Reihenfolge des Modells verschiedene Informationskriterien wie AIC, BIC, SIC usw. verwendet. Meine Frage ist sehr einfach: Warum verwenden wir nicht angepasstes , um ein geeignetes Modell auszuwählen? Wir können ein Modell auswählen, das zu einem höheren Wert des angepassten …

4
Interpretation des AIC-Wertes
Typische AIC-Werte, die ich für Logistikmodelle gesehen habe, sind Tausende, mindestens Hunderte. zB auf http://www.r-bloggers.com/how-to-perform-a-logistic-regression-in-r/ beträgt der AIC 727,39 Während immer gesagt wird, dass AIC nur zum Vergleichen von Modellen verwendet werden sollte, wollte ich verstehen, was ein bestimmter AIC-Wert bedeutet. Gemäß der Formel ist A ichC.= - 2 log( …

1
Original (?) Modellauswahl mit k-fachem Lebenslauf
Wenn ich einen k-fachen CV zur Auswahl unter Regressionsmodellen verwende, berechne ich normalerweise den CV-Fehler für jedes Modell separat zusammen mit seinem Standardfehler SE und wähle das einfachste Modell innerhalb von 1 SE des Modells mit dem niedrigsten CV-Fehler (der 1) aus Standardfehlerregel, siehe zum Beispiel hier ). Kürzlich wurde …

1
Wann ist eine ordnungsgemäße Bewertungsregel eine bessere Schätzung der Verallgemeinerung in einer Klassifizierungseinstellung?
Ein typischer Ansatz zur Lösung eines Klassifizierungsproblems besteht darin, eine Klasse von Kandidatenmodellen zu identifizieren und dann die Modellauswahl unter Verwendung eines Verfahrens wie einer Kreuzvalidierung durchzuführen. Üblicherweise wählt man das Modell mit der höchsten Genauigkeit oder eine entsprechende Funktion , dass Encodierungen Problem spezifische Informationen, wie FβFβ\text{F}_\beta . Angenommen, …

1
Äquivalenz von AIC- und p-Werten bei der Modellauswahl
In einem Kommentar zur Antwort auf diese Frage wurde festgestellt, dass die Verwendung von AIC bei der Modellauswahl der Verwendung eines p-Werts von 0,154 entspricht. Ich habe es in R versucht, wo ich einen "Rückwärts" -Untergruppenauswahlalgorithmus verwendet habe, um Variablen aus einer vollständigen Spezifikation herauszuwerfen. Erstens durch sequentielles Auswerfen der …


2
Problemberechnung, Interpretation von Regsubsets und allgemeine Fragen zum Modellauswahlverfahren
Ich möchte Modelle mit auswählen regsubsets(). Ich habe einen Datenrahmen namens olympiadaten (hochgeladene Daten: http://www.sendspace.com/file/8e27d0 ). Ich hänge zuerst diesen Datenrahmen an und beginne dann mit der Analyse. Mein Code lautet: attach(olympiadaten) library(leaps) a<-regsubsets(Gesamt ~ CommunistSocialist + CountrySize + GNI + Lifeexp + Schoolyears + ExpMilitary + Mortality + PopPoverty …


Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.