Ich habe mich gefragt, ob es möglich ist, einen sehr starken Korrelationskoeffizienten (z. B. 0,9 oder höher) mit einem hohen p-Wert (z. B. 0,25 oder höher) zu haben. Hier ist ein Beispiel für einen niedrigen Korrelationskoeffizienten mit einem hohen p-Wert: set.seed(10) y <- rnorm(100) x <- rnorm(100)+.1*y cor.test(x,y) cor = …
Ich möchte den Begriff von , der das Ausmaß der Variation zwischen Variablen beschreibt , vollständig erfassen . Jede Weberklärung ist ein bisschen mechanisch und stumpf. Ich möchte das Konzept "verstehen" und die Zahlen nicht nur mechanisch verwenden.r2r2r^2 ZB: Stunden studiert vs. Testergebnis = 0,8rrr = 0,64r2r2r^2 Also, was bedeutet …
Ich habe mich gefragt, ob es nach einem linearen Transformationsansatz möglich sein könnte, korrelierte binomische Zufallsvariablen zu generieren. Unten habe ich etwas Einfaches in R ausprobiert und es ergibt eine gewisse Korrelation. Aber ich habe mich gefragt, ob es einen prinzipiellen Weg gibt, dies zu tun? X1 = rbinom(1e4, 6, …
Der Korrelationskoeffizient wird normalerweise mit einem Großbuchstaben , manchmal jedoch nicht. Ich frage mich, ob es wirklich einen Unterschied zwischen und . Kann etwas anderes als einen Korrelationskoeffizienten bedeuten?r 2 R 2 rRRRr2r2r^2R2R2R^2rrr
Nach der Durchführung der Hauptkomponentenanalyse (PCA) möchte ich einen neuen Vektor auf den PCA-Raum projizieren (dh seine Koordinaten im PCA-Koordinatensystem finden). Ich habe PCA in R-Sprache mit berechnet prcomp. Jetzt sollte ich meinen Vektor mit der PCA-Rotationsmatrix multiplizieren können. Sollen die Hauptkomponenten in dieser Matrix in Zeilen oder Spalten angeordnet …
Ich habe zwei Variablen, die nicht viel Korrelation zeigen, wenn sie so wie sie sind gegeneinander geplottet werden, aber eine sehr klare lineare Beziehung, wenn ich die Protokolle jeder Variablen gegen die andere plotte. So würde ich mit einem Modell des Typs enden: log(Y)=alog(X)+blog(Y)=alog(X)+b\log(Y) = a \log(X) + b , …
Angenommen,X,YX,YX,Y sind kontinuierliche Zufallsvariablen mit endlichen Sekundenmomenten. Die Populationsversion von Spearmans Rangkorrelationskoeffizientkann als der Pearson-Produkt-Moment-Koeffizient ρ der Wahrscheinlichkeitsintegraltransformationenund, wobeidie cdf vonund, dhρsρsρ_sFX(X)FX(X)F_X(X)FY(Y)FY(Y)F_Y(Y)FX,FYFX,FYF_X,F_YXXXYYY ρs(X,Y)=ρ(F(X),F(Y))ρs(X,Y)=ρ(F(X),F(Y))ρ_s(X,Y)=ρ(F(X),F(Y)) . Ich frage mich, ob man daraus generell schließen kann ρ(X,Y)≠0↔ρ(F(X),F(Y))≠0ρ(X,Y)≠0↔ρ(F(X),F(Y))≠0ρ(X,Y)≠0↔ρ(F(X),F(Y))≠0 ? Dh haben wir eine lineare Korrelation, wenn und nur wenn wir eine lineare Korrelation zwischen …
Daten für bestimmte Arten von Variablen sind in der Regel nicht normal, wenn sie in bestimmten Bevölkerungsgruppen gemessen werden (z. B. Depressionsniveaus bei einer Population von Menschen mit schwerer Depressionsstörung). Wie robust ist die Teststatistik unter Nichtnormalitätsbedingungen, wenn Pearson Normalität annimmt? Ich habe eine Reihe von Variablen, für die ich …
Angenommen, ich teste, wie die Variable unter verschiedenen Versuchsbedingungen von der Variablen Yabhängt X, und erhalte das folgende Diagramm: Die gestrichelten Linien in der obigen Grafik stellen die lineare Regression für jede Datenreihe dar (Versuchsaufbau), und die Zahlen in der Legende bezeichnen die Pearson-Korrelation für jede Datenreihe. Ich möchte die …
Präzision ist definiert als: p = true positives / (true positives + false positives) Ist es richtig, dass sich die Genauigkeit 1 nähert true positivesund false positivessich 0 nähert? Gleiche Frage zum Rückruf: r = true positives / (true positives + false negatives) Ich führe derzeit einen statistischen Test durch, …
Kürzlich habe ich zwei Artikel gelesen. Erstens geht es um die Geschichte der Korrelation und zweitens um die neue Methode mit dem Namen Maximal Information Coefficient (MIC). Ich benötige Ihre Hilfe zum Verständnis der MIC-Methode zur Schätzung nichtlinearer Korrelationen zwischen Variablen. Eine Anleitung zur Verwendung in R finden Sie außerdem …
Aus der Wikipedia-Seite mit dem Titel Korrelation impliziert nicht Kausalität , Für zwei beliebige korrelierte Ereignisse, A und B, umfassen die verschiedenen möglichen Beziehungen: A verursacht B (direkte Ursache); B verursacht A (umgekehrte Ursache); A und B sind Konsequenzen einer gemeinsamen Ursache, verursachen sich aber nicht gegenseitig; A und B …
Ich benutze die Cholesky-Zerlegung, um korrelierte Zufallsvariablen bei gegebener Korrelationsmatrix zu simulieren. Die Sache ist, das Ergebnis reproduziert niemals die Korrelationsstruktur, wie sie gegeben ist. Hier ist ein kleines Beispiel in Python, um die Situation zu veranschaulichen. import numpy as np n_obs = 10000 means = [1, 2, 3] sds …
Wenn wir 2 normale, nicht korrelierte Zufallsvariablen haben, können wir mit der Formel 2 korrelierte Zufallsvariablen erstellenX1,X2X1,X2X_1, X_2 Y=ρX1+1−ρ2−−−−−√X2Y=ρX1+1−ρ2X2Y=\rho X_1+ \sqrt{1-\rho^2} X_2 und dann wird eine Korrelation mit .ρ X 1YYYρρ\rhoX1X1X_1 Kann jemand erklären, woher diese Formel kommt?
Ich versuche, eine korrelierte Zufallsfolge mit dem Mittelwert = , der Varianz = und dem Korrelationskoeffizienten = zu erzeugen . Im folgenden Code verwende ich & als Standardabweichung und & als Mittel.0001110.80.80.8s1s2m1m2 p = 0.8 u = randn(1, n) v = randn(1, n) x = s1 * u + m1 …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.