Als «multicollinearity» getaggte Fragen

Situation, in der eine starke lineare Beziehung zwischen Prädiktorvariablen besteht, so dass ihre Korrelationsmatrix (fast) singulär wird. Dieser "schlechte Zustand" macht es schwierig, die einzigartige Rolle zu bestimmen, die jeder der Prädiktoren spielt: Schätzungsprobleme treten auf und Standardfehler werden erhöht. Bivariat sehr hoch korrelierte Prädiktoren sind ein Beispiel für Multikollinearität.

2
Qualitative Variablencodierung in der Regression führt zu „Singularitäten“
Ich habe eine unabhängige Variable namens "Qualität"; Diese Variable hat 3 Antwortmodalitäten (schlechte Qualität; mittlere Qualität; hohe Qualität). Ich möchte diese unabhängige Variable in meine multiple lineare Regression einführen. Wenn ich eine binäre unabhängige Variable habe (Dummy-Variable, ich kann 0/ codieren 1), ist es einfach, sie in ein Modell mit …


1
Logistische Regression - Multikollinearitätsprobleme / Fallstricke
Muss bei der logistischen Regression die Multikollinearität genauso berücksichtigt werden wie bei der direkten OLS-Regression? Müssen Sie beispielsweise bei einer logistischen Regression, bei der Multikollinearität vorliegt, vorsichtig sein (wie bei einer OLS-Regression), wenn Sie Rückschlüsse auf die Beta-Koeffizienten ziehen? Bei der OLS-Regression ist die Kammregression ein "Fix" für eine hohe …

3
Wann können wir von Kollinearität sprechen?
In linearen Modellen müssen wir prüfen, ob eine Beziehung zwischen den erklärenden Variablen besteht. Wenn sie zu stark korrelieren, liegt Kollinearität vor (dh die Variablen erklären sich teilweise gegenseitig). Ich betrachte gerade die paarweise Korrelation zwischen jeder der erklärenden Variablen. Frage 1: Was stuft zu viel Korrelation ein? Ist beispielsweise …

1
Warum scheitert diese Regression NICHT an perfekter Multikollinearität, obwohl eine Variable eine lineare Kombination von anderen ist?
Heute habe ich mit einem kleinen Datensatz herumgespielt und eine einfache OLS-Regression durchgeführt, von der ich erwartet hatte , dass sie aufgrund perfekter Multikollinearität fehlschlägt. Das tat es jedoch nicht. Dies impliziert, dass mein Verständnis von Multikollinearität falsch ist. Meine Frage ist: Wo irre ich mich? Ich denke, ich kann …

1
Was ist die Intuition hinter austauschbaren Proben unter der Nullhypothese?
Permutationstests (auch Randomisierungstest, Re-Randomisierungstest oder exakter Test genannt) sind sehr nützlich und nützlich, wenn die zum Beispiel erforderliche Annahme einer Normalverteilung t-testnicht erfüllt ist und wenn die Transformation der Werte durch Rangfolge der Werte erfolgt Ein nicht parametrischer Test Mann-Whitney-U-testwürde dazu führen, dass mehr Informationen verloren gehen. Eine einzige Annahme, …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

2
VIF, Bedingungsindex und Eigenwerte
Derzeit bewerte ich die Multikollinearität in meinen Datensätzen. Welche Schwellenwerte von VIF und Zustandsindex unter / über deuten auf ein Problem hin? VIF: Ich habe gehört, dass VIF ein Problem ist.≥ 10≥10\geq 10 Nach dem Entfernen von zwei Problemvariablen beträgt VIF für jede Variable . Müssen die Variablen weiter behandelt …

4
Sollte man sich Gedanken über Multi-Kollinearität machen, wenn man nichtlineare Modelle verwendet?
Angenommen, wir haben ein Binärklassifizierungsproblem mit hauptsächlich kategorialen Merkmalen. Wir verwenden ein nichtlineares Modell (z. B. XGBoost oder Random Forests), um es zu lernen. Sollte man sich immer noch Sorgen um Multi-Kollinearität machen? Warum? Wenn die Antwort auf das oben Gesagte zutrifft, wie sollte man dagegen vorgehen, wenn man bedenkt, …

2
Lineare Regression, wenn Sie nur
Angenommen , Xβ=YXβ=YX\beta =Y . Wir wissen nicht , YYY genau, nur ihre Korrelation mit jedem Prädiktor, XtYXtYX^\mathrm{t}Y . Die gewöhnliche Lösung der kleinsten Quadrate (OLS) ist β=(XtX)−1XtYβ=(XtX)−1XtY\beta=(X^\mathrm{t} X)^{-1} X^\mathrm{t}Y und es gibt kein Problem. Angenommen, XtXXtXX^\mathrm{t}X ist nahezu singulär (Multikollinearität), und Sie müssen den optimalen Kammparameter schätzen. Alle Methoden …

2
Was sind Blocktests?
Als Antwort auf eine Frage zur Modellauswahl in Gegenwart von Multikollinearität schlug Frank Harrell vor : Fügen Sie alle Variablen in das Modell ein, testen Sie jedoch nicht die Auswirkung einer Variablen, die für die Auswirkung konkurrierender Variablen angepasst ist ... Blocktests konkurrierender Variablen sind sehr leistungsfähig, da kollineare Variablen …


1
Warum funktioniert Ridge Regression bei Multikollinearität gut?
Ich lerne etwas über die Gratregression und weiß, dass die Gratregression bei Multikollinearität tendenziell besser funktioniert. Ich frage mich, warum das so ist? Entweder eine intuitive oder eine mathematische Antwort wäre zufriedenstellend (beide Arten von Antworten wären sogar noch zufriedenstellender). Außerdem weiß ich , dass das β immer erhalten werden, …

3
Muss ich korrelierte / kollineare Variablen löschen, bevor ich kmeans laufen lasse?
Ich laufe Kilometer, um Kundencluster zu identifizieren. Ich habe ungefähr 100 Variablen, um Cluster zu identifizieren. Jede dieser Variablen gibt den Prozentsatz der Ausgaben eines Kunden für eine Kategorie an. Wenn ich also 100 Kategorien habe, habe ich diese 100 Variablen, sodass die Summe dieser Variablen für jeden Kunden 100% …

3
Wie kann man mit instabilen
Beta-Stabilität in linearer Regression mit hoher Multi-Kollinearität? Nehmen wir an, in einer linearen Regression haben die Variablen und x 2 eine hohe Multi-Kollinearität (die Korrelation liegt bei 0,9).x1x1x_1x2x2x_2 Wir sind besorgt über die Stabilität des Koeffizienten, daher müssen wir die Multikollinearität behandeln.ββ\beta Die Lehrbuchlösung wäre, einfach eine der Variablen wegzuwerfen. …


Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.