Als «covariance-matrix» getaggte Fragen

EIN k×k Kovarianzmatrix zwischen allen Paaren von kzufällige Variablen. Es wird auch Varianz-Kovarianz-Matrix oder einfach die Kovarianz-Matrix genannt.

3
Varianz-Kovarianz-Matrix der Fehler in der linearen Regression
Wie wird die Var / Cov-Fehlermatrix in der Praxis von statistischen Analysepaketen berechnet? Diese Idee ist mir theoretisch klar. Aber nicht in der Praxis. Ich meine, wenn ich einen Vektor von Zufallsvariablen , verstehe ich, dass die Varianz / Kovarianz-Matrix erhält das externe Produkt der vom Mittelwert abweichenden Vektoren: .X=(X1,X2,…,Xn)⊤X=(X1,X2,…,Xn)⊤\textbf{X}=(X_{1}, …

1
Was tun, wenn die Probenkovarianzmatrix nicht invertierbar ist?
Ich arbeite an einigen Clustering-Techniken, bei denen ich für einen bestimmten Cluster von d-dimensionalen Vektoren eine multivariate Normalverteilung annehme und den d-dimensionalen Mittelwertvektor der Stichprobe und die Kovarianzmatrix der Stichprobe berechne. Wenn ich dann versuche zu entscheiden, ob ein neuer, unsichtbarer, d-dimensionaler Vektor zu diesem Cluster gehört, überprüfe ich seine …


3
Wie wird eine Faktoranalyse durchgeführt, wenn die Kovarianzmatrix nicht eindeutig positiv ist?
Ich habe einen Datensatz, der aus 717 Beobachtungen (Zeilen) besteht, die durch 33 Variablen (Spalten) beschrieben werden. Die Daten werden durch Z-Scoring aller Variablen standardisiert. Keine zwei Variablen sind linear abhängig ( ). Ich habe auch alle Variablen mit sehr geringer Varianz (weniger als ) entfernt. Die folgende Abbildung zeigt …

3
Messung der nichtlinearen Abhängigkeit
Die Kovarianz zwischen zwei Zufallsvariablen definiert ein Maß dafür, wie eng sie linear miteinander verbunden sind. Was aber, wenn die gemeinsame Verteilung kreisförmig ist? Sicher gibt es Struktur in der Verteilung. Wie wird diese Struktur extrahiert?

3
Ist jede Korrelationsmatrix positiv eindeutig?
Ich spreche hier von Matrizen von Pearson-Korrelationen. Ich habe oft gehört, dass alle Korrelationsmatrizen positiv semidefinit sein müssen. Mein Verständnis ist, dass positive bestimmte Matrizen Eigenwerte , während positive semidefinite Matrizen Eigenwerte ≥ 0 haben müssen . Dies lässt mich denken, dass meine Frage wie folgt umformuliert werden kann: "Können …

1
Warum erklären alle PLS-Komponenten zusammen nur einen Teil der Varianz der Originaldaten?
Ich habe einen Datensatz bestehend aus 10 Variablen. Ich habe partielle kleinste Quadrate (PLS) ausgeführt, um eine einzelne Antwortvariable anhand dieser 10 Variablen vorherzusagen, 10 PLS-Komponenten extrahiert und dann die Varianz jeder Komponente berechnet. Auf den Originaldaten habe ich die Summe der Varianzen aller Variablen genommen, die 702 ist. Dann …

1
Verwirrt über die visuelle Erklärung von Eigenvektoren: Wie können visuell unterschiedliche Datensätze dieselben Eigenvektoren haben?
Viele Statistiklehrbücher bieten eine intuitive Illustration der Eigenvektoren einer Kovarianzmatrix: Die Vektoren u und z bilden die Eigenvektoren (also Eigenachsen). Das macht Sinn. Was mich jedoch verwirrt, ist, dass wir Eigenvektoren aus der Korrelationsmatrix extrahieren , nicht die Rohdaten. Darüber hinaus können sehr unterschiedliche Rohdatensätze identische Korrelationsmatrizen aufweisen. Zum Beispiel …

2
Geeignete Maßnahme, um die kleinste Kovarianzmatrix zu finden
In dem Lehrbuch, das ich lese, verwenden sie positive Bestimmtheit (halbpositive Bestimmtheit), um zwei Kovarianzmatrizen zu vergleichen. Die Idee ist, dass wenn pd ist, kleiner als . Aber ich kämpfe darum, die Intuition dieser Beziehung zu bekommen?A−BA−BA-BBBBAAA Hier gibt es einen ähnlichen Thread: /math/239166/what-is-the-intuition-for-using-definiteness-to-compare-matrices Was ist die Intuition für die …

1
Warum haben Anova () und drop1 () unterschiedliche Antworten für GLMMs geliefert?
Ich habe ein GLMM der Form: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Wenn ich benutze drop1(model, test="Chi"), erhalte ich andere Ergebnisse als wenn ich Anova(model, type="III")aus dem Autopaket oder benutze summary(model). Diese beiden letzteren geben die gleichen Antworten. Unter Verwendung einer Reihe …
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 



2
Wie finde ich die Kovarianzmatrix eines Polygons?
Stellen Sie sich vor, Sie haben ein Polygon, das durch einen Satz von Koordinaten und dessen Schwerpunkt bei . Sie können das Polygon als gleichmäßige Verteilung mit einer polygonalen Grenze behandeln. (x1,y1)...(xn,yn)(x1,y1)...(xn,yn)(x_1,y_1)...(x_n,y_n)(0,0)(0,0)(0,0) Ich bin nach einer Methode, die die Kovarianzmatrix eines Polygons findet . Ich vermute, dass die Kovarianzmatrix eines …

3
Was tun mit einer Korrelation mit zufälligen Effekten, die gleich 1 oder -1 ist?
Das nicht so seltene Auftreten bei komplexen maximal gemischten Modellen (Schätzung aller möglichen zufälligen Effekte für bestimmte Daten und Modelle) ist eine perfekte (+1 oder -1) oder nahezu perfekte Korrelation zwischen einigen zufälligen Effekten. Betrachten wir zum Zweck der Diskussion das folgende Modell und die folgende Modellzusammenfassung Model: Y ~ …

1
Haben die Determinanten von Kovarianz- und Korrelationsmatrizen und / oder ihre Umkehrungen nützliche Interpretationen?
Als ich vor einigen Jahren lernte, Kovarianz- und Korrelationsmatrizen und ihre Inversen in VB und T-SQL zu berechnen, stellte ich fest, dass die verschiedenen Einträge interessante Eigenschaften haben, die sie in den richtigen Data Mining-Szenarien nützlich machen können. Ein offensichtliches Beispiel ist das Vorhandensein von Varianzen auf den Diagonalen von …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.