Ich bin gerade auf diese Arbeit gestoßen , in der beschrieben wird, wie die Wiederholbarkeit (auch bekannt als Zuverlässigkeit, auch bekannt als Intraclass-Korrelation) einer Messung über Mixed-Effects-Modellierung berechnet wird. Der R-Code wäre: #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = …
Es gibt drei Zufallsvariablen, x,y,zx,y,zx,y,z . Die drei Korrelationen zwischen den drei Variablen sind gleich. Das ist, ρ=cor(x,y)=cor(x,z)=cor(y,z)ρ=cor(x,y)=cor(x,z)=cor(y,z)\rho=\textrm{cor}(x,y)=\textrm{cor}(x,z)=\textrm{cor}(y,z) Was ist die engste Grenze, die Sie für geben können ρρ\rho?
Wenn ich GAM verwende, erhalte ich einen DF-Rest von (letzte Zeile im Code). Was bedeutet das? Über das GAM-Beispiel hinausgehend: Kann die Anzahl der Freiheitsgrade im Allgemeinen eine nicht ganzzahlige Zahl sein?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median …
Ich habe beobachtet, dass der Absolutwert des Pearson-Korrelationskoeffizienten im Durchschnitt für jedes Paar unabhängiger zufälliger Spaziergänge eine Konstante nahe ist , unabhängig von der Länge des Spaziergangs.0.560.42 Kann jemand dieses Phänomen erklären? Ich erwartete, dass die Korrelationen kleiner werden, wenn die Gehlänge zunimmt, wie bei jeder zufälligen Sequenz. Für meine …
Ein Lieblingsspruch vieler Statistiker lautet: "Korrelation impliziert keine Kausalität." Dies ist sicherlich wahr, aber eine Sache, die hier impliziert zu sein scheint, ist, dass Korrelation wenig oder keinen Wert hat. Ist das wahr? Ist es sinnlos zu wissen, dass zwei Variablen miteinander korrelieren? Ich kann mir nicht vorstellen, dass dies …
Vielleicht ist diese Frage naiv, aber: Wenn die lineare Regression eng mit dem Pearson-Korrelationskoeffizienten zusammenhängt, gibt es Regressionstechniken, die eng mit den Kendall- und Spearman-Korrelationskoeffizienten zusammenhängen?
Mein Statistikprofessor behauptet, dass das Wort "Korrelation" ausschließlich für lineare Beziehungen zwischen Variablen gilt, wohingegen das Wort "Assoziation" allgemein für jede Art von Beziehung gilt. Mit anderen Worten, er behauptet, der Begriff "nichtlineare Korrelation" sei ein Oxymoron. Der Pearson-Korrelationskoeffizient beschreibt, wie ich aus diesem Abschnitt des Wikipedia-Artikels über " Korrelation …
Die Inter-Market-Analyse ist eine Methode zur Modellierung des Marktverhaltens durch Auffinden von Beziehungen zwischen verschiedenen Märkten. Häufig wird eine Korrelation zwischen zwei Märkten berechnet, z. B. S & P 500 und 30-jährigen US-Treasuries. Diese Berechnungen basieren zumeist auf Preisdaten, was für jedermann offensichtlich ist, dass sie nicht zur Definition von …
Ich habe eine Korrelationsmatrix von Sicherheitsrenditen, deren Determinante Null ist. (Dies ist ein wenig überraschend, da die Stichprobenkorrelationsmatrix und die entsprechende Kovarianzmatrix theoretisch eindeutig positiv sein sollten.) Meine Hypothese ist, dass mindestens ein Wertpapier linear von anderen Wertpapieren abhängig ist. Gibt es eine Funktion in R, die nacheinander für jede …
Ist es möglich, den p-Wert in der Pearson-Korrelation in R zu finden? Um die Pearson-Korrelation zu finden, mache ich das normalerweise col1 = c(1,2,3,4) col2 = c(1,4,3,5) cor(col1,col2) # [1] 0.8315218 Aber wie finde ich den p-Wert davon?
Jeder fleißige Student ist ein Gegenbeispiel zu "alle Studenten sind faul". Was sind einige einfache Gegenbeispiele zu "Wenn die Zufallsvariablen XXX und YYY nicht korreliert sind, sind sie unabhängig"?
Ich habe einen Artikel gelesen, der besagt, dass bei der Verwendung geplanter Kontraste zum Auffinden von Mitteln, die sich in einer ANOVA unterscheiden, Nebenbedingungen orthogonal sein sollten, damit sie nicht korrelieren und verhindern, dass der Fehler vom Typ I aufgeblasen wird. Ich verstehe nicht, warum orthogonal unter keinen Umständen unkorreliert …
Ich verwende derzeit einige lineare Modelle mit gemischten Effekten. Ich benutze das Paket "lme4" in R. Meine Modelle haben die Form: model <- lmer(response ~ predictor1 + predictor2 + (1 | random effect)) Bevor ich meine Modelle ausführte, überprüfte ich die mögliche Multikollinearität zwischen Prädiktoren. Ich habe das gemacht von: …
Seit einiger Zeit bin ich auf der Suche nach einer guten Einführung in Copulas für mein Seminar. Ich finde viel Material, das über theoretische Aspekte spricht, was gut ist, aber bevor ich darauf eingehe, versuche ich, ein gutes intuitives Verständnis für das Thema aufzubauen. Könnte jemand eine gute Arbeit vorschlagen, …
Ich interessiere mich für die geometrische Bedeutung der Mehrfachkorrelation RRR und des Bestimmungskoeffizienten R2R2R^2 in der Regression yi=β1+β2x2,i+⋯+βkxk,i+ϵiyi=β1+β2x2,i+⋯+βkxk,i+ϵiy_i = \beta_1 + \beta_2 x_{2,i} + \dots + \beta_k x_{k,i} + \epsilon_i oder für die Vektorschreibweise , y=Xβ+ϵy=Xβ+ϵ\mathbf{y} = \mathbf{X \beta} + \mathbf{\epsilon} Hier ist die Designmatrix XX\mathbf{X} hat nnn Zeilen und …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.