Als «aic» getaggte Fragen

AIC steht für das Akaike Information Criterion, eine Technik, mit der das beste Modell aus einer Klasse von Modellen unter Verwendung einer bestraften Wahrscheinlichkeit ausgewählt wird. Ein kleinerer AIC impliziert ein besseres Modell.

1
Variablenauswahl vs Modellauswahl
Ich verstehe also, dass die Variablenauswahl Teil der Modellauswahl ist. Woraus besteht die Modellauswahl genau? Ist es mehr als das Folgende: 1) Wählen Sie eine Distribution für Ihr Modell 2) erklärende Variablen wählen,? Ich frage dies, weil ich einen Artikel von Burnham & Anderson lese : AIC vs BIC, in …

2
Unterschiedliche AIC-Definitionen
Aus Wikipedia gibt es eine Definition von Akaikes Informationskriterium (AIC) als , wobei die Anzahl der Parameter und die log-Wahrscheinlichkeit des Modells ist.AIC=2k−2logLAIC=2k−2log⁡L AIC = 2k -2 \log L kkklogLlog⁡L\log L Unsere Ökonometrie stellt jedoch an einer angesehenen Universität fest, dass . Hier ist die geschätzte Varianz für die Fehler …

5
Wie führt man eine Imputation von Werten in einer sehr großen Anzahl von Datenpunkten durch?
Ich habe einen sehr großen Datensatz und es fehlen ungefähr 5% zufällige Werte. Diese Variablen sind miteinander korreliert. Der folgende Beispiel-R-Datensatz ist nur ein Spielzeugbeispiel mit Dummy-korrelierten Daten. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", 1:10000, sep …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

1
Kriterien für die Auswahl des „besten“ Modells in einem Hidden-Markov-Modell
Ich habe einen Zeitreihendatensatz, an den ich ein Hidden Markov Model (HMM) anpasse, um die Anzahl der latenten Zustände in den Daten abzuschätzen. Mein Pseudocode dafür ist der folgende: for( i in 2 : max_number_of_states ){ ... calculate HMM with i states ... optimal_number_of_states = "model with smallest BIC" ... …


1
AIC für nicht verschachtelte Modelle: Normalisierungskonstante
Der AIC ist definiert als , wobei der Maximum-Likelihood-Schätzer und die Dimension des Parameterraums ist. Bei der Schätzung von vernachlässigt man normalerweise den konstanten Faktor der Dichte. Dies ist der Faktor, der nicht von den Parametern abhängt, um die Wahrscheinlichkeit zu vereinfachen. Andererseits ist dieser Faktor für die Berechnung des …






3
Vergleich von Regressionsmodellen anhand von Zähldaten
Ich habe kürzlich 4 multiple Regressionsmodelle für dieselben Prädiktor- / Antwortdaten angepasst. Zwei der Modelle passen zur Poisson-Regression. model.pois <- glm(Response ~ P1 + P2 +...+ P5, family=poisson(), ...) model.pois.inter <- glm(Response ~ (P1 + P2 +...+ P5)^2, family=poisson(), ...) Zwei der Modelle passen zu einer negativen binomialen Regression. library(MASS) …



2
Gibt es eine Modellanpassungsstatistik (wie AIC oder BIC), die für absolute statt nur für relative Vergleiche verwendet werden kann?
Ich bin mit dieser Literatur nicht so vertraut. Bitte verzeihen Sie mir, wenn dies eine offensichtliche Frage ist. Da AIC und BIC von der Maximierung der Wahrscheinlichkeit abhängen, können sie anscheinend nur verwendet werden, um relative Vergleiche zwischen einer Reihe von Modellen anzustellen, die versuchen, zu einem bestimmten Datensatz zu …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.