Als «multicollinearity» getaggte Fragen

Situation, in der eine starke lineare Beziehung zwischen Prädiktorvariablen besteht, so dass ihre Korrelationsmatrix (fast) singulär wird. Dieser "schlechte Zustand" macht es schwierig, die einzigartige Rolle zu bestimmen, die jeder der Prädiktoren spielt: Schätzungsprobleme treten auf und Standardfehler werden erhöht. Bivariat sehr hoch korrelierte Prädiktoren sind ein Beispiel für Multikollinearität.

2
Varianz-Kovarianz-Matrixinterpretation
Angenommen, wir haben ein lineares Modell Model1und vcov(Model1)geben die folgende Matrix an: (Intercept) latitude sea.distance altitude (Intercept) 28.898100 -23.6439000 -34.1523000 0.50790600 latitude -23.643900 19.7032500 28.4602500 -0.42471450 sea.distance -34.152300 28.4602500 42.4714500 -0.62612550 altitude 0.507906 -0.4247145 -0.6261255 0.00928242 Was zeigt diese Matrix in diesem Beispiel tatsächlich an? Welche Annahmen können wir sicher …

1
Gibt es ein Problem mit Multikollinearität und Splines-Regression?
Bei Verwendung natürlicher (dh eingeschränkter) kubischer Splines sind die erzeugten Basisfunktionen hochgradig kollinear, und bei Verwendung in einer Regression scheinen sich sehr hohe VIF-Statistiken (Varianzinflationsfaktor) zu ergeben, die Multikollinearität signalisieren. Wenn man den Fall eines Modells für Vorhersagezwecke in Betracht zieht, ist dies ein Problem? Es scheint, als ob dies …

2
Umgang mit Multikollinearität
Ich habe gelernt, dass wir mit vif()der carPackage- Methode den Grad der Multikollinearität von Eingaben in einem Modell berechnen können. Von wikipedia , wenn der vifWert größer als 5dann können wir davon ausgehen , dass die Eingabe von multicollinearity Problem leidet. Ich habe zum Beispiel ein lineares Regressionsmodell mit der …

1
Interpretieren von Proportionen, die als unabhängige Variablen in der linearen Regression eins ergeben
Ich bin mit dem Konzept der kategorialen Variablen und der jeweiligen Dummy-Variablencodierung vertraut, die es uns ermöglicht, eine Ebene als Basislinie anzupassen, um Kollinearität zu vermeiden. Ich bin auch mit der Interpretation von Parameterschätzungen aus solchen Modellen vertraut: Die vorhergesagte Änderung des Ergebnisses für eine bestimmte angepasste Ebene des kategorialen …

2
So erstellen Sie ein Regressionsmodell, wenn der am stärksten assoziierte Prädiktor binär ist
Ich habe Daten nämlich 365 Beobachtung von drei Variablen gesetzt enthält pm, tempund rain. Jetzt möchte ich das Verhalten pmals Reaktion auf Änderungen in anderen zwei Variablen überprüfen . Meine Variablen sind: pm10 = Antwort (abhängig) temp = Prädiktor (unabhängig) rain = Prädiktor (unabhängig) Das Folgende ist die Korrelationsmatrix für …

3
Was sind die Vorzüge verschiedener Ansätze zur Erkennung von Kollinearität?
Ich möchte feststellen, ob Kollinearität ein Problem in meiner OLS-Regression ist. Ich verstehe, dass Varianzinflationsfaktoren und der Zustandsindex zwei häufig verwendete Messgrößen sind, finde es jedoch schwierig, etwas Bestimmtes in Bezug auf die Vorzüge jedes Ansatzes oder die Höhe der Bewertungen zu finden. Eine prominente Quelle, die angibt, welcher Ansatz …

5
Was tun mit kollinearen Variablen?
Haftungsausschluss: Dies ist für ein Hausaufgabenprojekt. Ich versuche, das beste Modell für Diamantpreise zu finden, abhängig von mehreren Variablen, und ich scheine bisher ein ziemlich gutes Modell zu haben. Ich bin jedoch auf zwei Variablen gestoßen, die offensichtlich kollinear sind: >with(diamonds, cor(data.frame(Table, Depth, Carat.Weight))) Table Depth Carat.Weight Table 1.00000000 -0.41035485 …


5
Reduziert die Standardisierung unabhängiger Variablen die Kollinearität?
Ich habe einen sehr guten Text über Bayes / MCMC gefunden. Die IT schlägt vor, dass eine Standardisierung Ihrer unabhängigen Variablen einen MCMC-Algorithmus (Metropolis) effizienter macht, aber auch die (Mehrfach-) Kollinearität verringert. Kann das wahr sein? Ist das etwas, was ich als Standard tun sollte? (Entschuldigung). Kruschke 2011, Bayesianische Datenanalyse. …



4
Ist Multikollinearität wirklich ein Problem?
Ich arbeite derzeit an einem Vorhersagemodellierungsprojekt: Ich versuche, ein Modell zu lernen und Echtzeitvorhersagen auf der Grundlage des Modells zu treffen, das ich offline gelernt habe. Ich habe kürzlich angefangen, die Ridge-Regression zu verwenden, weil ich gelesen habe, dass Regularisierung dazu beitragen kann, den Effekt der Multikollinearität zu verringern. Allerdings …

1
Varianzinflationsfaktor für verallgemeinerte additive Modelle
In der üblichen VIF Berechnung für eine lineare Regression, die jeweils unabhängig / erklärende Variable wird als abhängige Variable in einem gewöhnlichen Regression der kleinsten Quadrate behandelt. dhXjXjX_j Xj=β0+∑i=1,i≠jnβiXiXj=β0+∑i=1,i≠jnβiXi X_j = \beta_0 + \sum_{i=1, i \neq j}^n \beta_i X_i Die -Werte werden für jede der n Regressionen gespeichert und VIF …


2
Ist Multikollinearität in kategorialen Variablen enthalten?
Beim Basteln mit einem multivariaten Regressionsmodell stellte ich fest, dass innerhalb der Kategorien einer kategorialen Variablen (natürlich nach Ausschluss der Referenzkategorie) ein kleiner, aber wahrnehmbarer Multikollinearitätseffekt auftrat, gemessen anhand von Varianzinflationsfaktoren . Nehmen wir zum Beispiel an, wir haben einen Datensatz mit der stetigen Variablen y und einer nominalen kategorialen …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.