Als «model-selection» getaggte Fragen

Die Modellauswahl ist ein Problem bei der Beurteilung, welches Modell aus einem Satz am besten funktioniert. Beliebte Methoden sindR.2, AIC- und BIC-Kriterien, Testsätze und Kreuzvalidierung. In gewissem Maße ist die Merkmalsauswahl ein Teilproblem der Modellauswahl.

1
Angemessene Restfreiheitsgrade nach dem Löschen von Begriffen aus einem Modell
Ich denke über die Diskussion um diese Frage und insbesondere über Frank Harrells Kommentar nach, dass die Varianzschätzung in einem reduzierten Modell (dh einer, aus der eine Reihe von erklärenden Variablen getestet und verworfen wurden) Yes allgemeine Freiheitsgrade verwenden sollte . Professor Harrell weist darauf hin, dass dies den verbleibenden …

3
Kann AIC zwischen verschiedenen Modelltypen vergleichen?
Ich verwende AIC (Akaikes Informationskriterium), um nichtlineare Modelle in R zu vergleichen. Ist es gültig, die AICs verschiedener Modelltypen zu vergleichen? Insbesondere vergleiche ich ein von glm angepasstes Modell mit einem von glmer (lme4) angepassten Ausdruck für zufällige Effekte. Wenn nein, gibt es eine Möglichkeit, einen solchen Vergleich durchzuführen? Oder …

4
Wie wird die „variable Wichtigkeit“ bei der Verwendung von CART gemessen / eingestuft? (speziell mit {rpart} von R)
Wenn Sie ein CART-Modell (insbesondere einen Klassifizierungsbaum) mit rpart (in R) erstellen, ist es häufig interessant zu wissen, welche Bedeutung die verschiedenen Variablen haben, die in das Modell eingeführt werden. Meine Frage lautet daher: Welche gängigen Maße gibt es für das Ranking / Messen der Variablenwichtigkeit von beteiligten Variablen in …


4
Behandlung der Modellunsicherheit
Ich habe mich gefragt, wie die Bayesianer in der CrossValidated-Community das Problem der Modellunsicherheit sehen und wie sie es vorziehen, damit umzugehen. Ich werde versuchen, meine Frage in zwei Teilen zu stellen: Wie wichtig ist (Ihrer Erfahrung / Meinung nach) der Umgang mit Modellunsicherheit? Ich habe in der Community für …

5
Was bringt es, einen Faktor in einem gemischten Modell als zufällig zu behandeln?
Ich habe aus einigen Gründen ein Problem damit, die Vorteile der Kennzeichnung eines Modellfaktors als zufällig zu betrachten. Für mich scheint es in fast allen Fällen die optimale Lösung zu sein, alle Faktoren als fest zu behandeln. Erstens ist die Unterscheidung zwischen fest und zufällig ziemlich willkürlich. Die übliche Erklärung …


2
Themenstabilität in Themenmodellen
Ich arbeite an einem Projekt, in dem ich Informationen über den Inhalt einer Reihe von Aufsätzen mit offenem Ende extrahieren möchte. In diesem speziellen Projekt schrieben 148 Personen Aufsätze über eine hypothetische Studentenorganisation als Teil eines größeren Experiments. Obwohl in meinem Fachgebiet (Sozialpsychologie) die typische Methode zur Analyse dieser Daten …

2
Warum funktioniert Wilks 'Beweis von 1938 nicht für falsch spezifizierte Modelle?
In der berühmten Arbeit von 1938 (" Die Verteilung des Wahrscheinlichkeitsverhältnisses bei großen Stichproben zum Testen von zusammengesetzten Hypothesen ", Annals of Mathematical Statistics, 9: 60-62) leitete Samuel Wilks die asymptotische Verteilung des (log Likelihood Ratio) ab. für verschachtelte Hypothesen unter der Annahme, dass die größere Hypothese korrekt angegeben ist. …

1
Auswahl unter den richtigen Bewertungsregeln
In den meisten Ressourcen zu den Regeln für die richtige Bewertung werden verschiedene Bewertungsregeln wie Protokollverlust, Brier-Punktzahl oder sphärische Bewertung erwähnt. Häufig geben sie jedoch keine Orientierungshilfe zu den Unterschieden zwischen ihnen. (Anlage A: Wikipedia .) Die Auswahl des Modells, das die logarithmische Bewertung maximiert, entspricht der Auswahl des Maximum-Likelihood-Modells, …

3
AIC versus Kreuzvalidierung in Zeitreihen: der kleine Musterfall
Ich interessiere mich für die Modellauswahl in einer Zeitreiheneinstellung. Nehmen wir der Vollständigkeit halber an, ich möchte ein ARMA-Modell aus einem Pool von ARMA-Modellen mit unterschiedlichen Verzögerungsreihenfolgen auswählen. Die ultimative Absicht ist die Vorhersage . Die Modellauswahl kann über erfolgen Kreuzvalidierung, Verwendung von Informationskriterien (AIC, BIC), unter anderem Methoden. Rob …


2
Bester Ansatz für die Modellauswahl Bayesian oder Kreuzvalidierung?
Wenn ich versuche, zwischen verschiedenen Modellen oder der Anzahl von Merkmalen zu wählen, für die eine Vorhersage erforderlich ist, kann ich mir zwei Ansätze vorstellen. Teilen Sie die Daten in Trainings- und Testsätze auf. Besser noch, verwenden Sie Bootstrapping oder k-fach Kreuzvalidierung. Trainieren Sie jedes Mal am Trainingssatz und berechnen …



Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.