Cohens d für den abhängigen Stichproben-T-Test


10

Kurze Frage: Ich habe gesehen, dass Cohens d zwei verschiedene Methoden für einen T-Test für abhängige Proben berechnet hat (z. B. Design innerhalb der Proben, um die Wirksamkeit eines Medikaments mit Zeitpunkten vor / nach dem Test zu testen).

  1. Unter Verwendung der Standardabweichung der Änderungsbewertung im Nenner der Gleichung für Cohens d.
  2. Unter Verwendung der Standardabweichung der Vortestbewertung im Nenner der Gleichung für Cohens d.

Ich habe sehr wenig Literatur gefunden, die tatsächlich beschreibt, welche und / oder wann eine der beiden Optionen verwendet werden soll.

Irgendwelche schnellen Gedanken?


Haben Sie herausgefunden, wie Sie Cohens d für den gepaarten Stichproben-T-Test berechnen können?
user552231

@ user552231 Es gibt Open Source R-Code für Cochens D. Haben Sie gesucht?
HelloWorld

Antworten:


6

Geoff Cumming hat einige Kommentare zu dieser Angelegenheit (entnommen aus Cumming, 2013 ):

In vielen Fällen ist die beste Wahl für den Standardisierer jedoch nicht die SD, die erforderlich ist, um Rückschlüsse auf den betreffenden Effekt zu ziehen. Betrachten Sie beispielsweise das gepaarte Design, beispielsweise ein einfaches Pre-Post-Experiment, bei dem eine einzelne Gruppe von Teilnehmern sowohl Pretest- als auch Posttest-Daten bereitstellt. Der am besten geeignete Standardisierer ist praktisch immer (Cumming, 2012, S. 290–294; Cumming & Finch, 2001, S. 568–570) eine Schätzung der SD in der Pretest-Population, möglicherweise , der Pretest-SD in unseren Daten. Im Gegensatz dazu erfordert die Inferenz über die Differenz , die SD der gepaarten Differenzen - ob für einen gepaarten t-Test oder um einen CI für die Differenz zu berechnen (Cumming & Finch, 2005). In dem Maße, in dem die Ergebnisse vor und nach dem Test korreliert sind, ists1sdiffsdiffwird kleiner als , unser Experiment wird empfindlicher sein und ein Wert von d, der fälschlicherweise unter Verwendung von als Standardisierer berechnet wurde, wird zu groß sein.s1sdiff

Der Hauptgrund für die Wahl von als Standardisierer im gepaarten Design ist, dass die Pretest-Population SD als Referenzeinheit praktisch immer den besten konzeptionellen Sinn ergibt. Ein weiterer wichtiger Grund besteht darin, d-Werte zu erhalten, die wahrscheinlich mit d-Werten vergleichbar sind, die durch andere Paired-Design-Experimente mit möglicherweise unterschiedlichen Pretest-Posttest-Korrelationen und durch Experimente mit unterschiedlichen Designs, einschließlich des Designs für unabhängige Gruppen, angegeben wurden gleicher Effekt. Die d-Werte in all diesen Fällen sind wahrscheinlich vergleichbar, da sie denselben Standardisierer verwenden - die Kontroll- oder Vortest-SD. Eine solche Vergleichbarkeit ist sowohl für die Metaanalyse als auch für eine aussagekräftige Interpretation im Kontext von wesentlicher Bedeutung.spre


3

Die formale Antwort fand ich in Frontiers in Psychology . Wenn die Teststatistik und die Zahlenbeobachtungen ist, gilt:tN

d=tN

Beachten Sie, dass Sie dadurch die standardisierte mittlere Änderung erhalten, bei der die mittlere Änderung in Bezug auf die Standardabweichung der Änderungswerte standardisiert ist (was in der Frage als 1. bezeichnet wird).
Wolfgang

0

Hier ist eine vorgeschlagene R-Funktion, die Hedges 'g (die unvoreingenommene Version von Cohens d) zusammen mit ihrem Konfidenzintervall für das Design zwischen oder innerhalb des Subjekts berechnet:

gethedgesg <-function( x1, x2, design = "between", coverage = 0.95) {
  # mandatory arguments are x1 and x2, both a vector of data

  require(psych) # for the functions SD and harmonic.mean.

  # store the columns in a dataframe: more convenient to handle one variable than two
  X <- data.frame(x1,x2)

  # get basic descriptive statistics
  ns  <- lengths(X)
  mns <- colMeans(X)
  sds <- SD(X)

  # get pairwise statistics
  ntilde <- harmonic.mean(ns)
  dmn    <- abs(mns[2]-mns[1])
  sdp    <- sqrt( (ns[1]-1) *sds[1]^2 + (ns[2]-1)*sds[2]^2) / sqrt(ns[1]+ns[2]-2)

  # compute biased Cohen's d (equation 1) 
  cohend <- dmn / sdp

  # compute unbiased Hedges' g (equations 2a and 3)
  eta     <- ns[1] + ns[2] - 2
  J       <- gamma(eta/2) / (sqrt(eta/2) * gamma((eta-1)/2) )
  hedgesg <-  cohend * J

  # compute noncentrality parameter (equation 5a or 5b depending on the design)
  lambda <- if(design == "between") {
    hedgesg * sqrt( ntilde/2)
  } else {
    r <- cor(X)[1,2]
    hedgesg * sqrt( ntilde/(2 * (1-r)) )
  }

  # confidence interval of the hedges g (equations 6 and 7)
  tlow <- qt(1/2 - coverage/2, df = eta, ncp = lambda )
  thig <- qt(1/2 + coverage/2, df = eta, ncp = lambda )

  dlow <- tlow / lambda * hedgesg 
  dhig <- thig / lambda * hedgesg 

  # all done! display the results
  cat("Hedges'g = ", hedgesg, "\n", coverage*100, "% CI = [", dlow, dhig, "]\n")

}

Hier ist, wie es verwendet werden könnte:

x1 <- c(53, 68, 66, 69, 83, 91)
x2 <- c(49, 60, 67, 75, 78, 89)

# using the defaults: between design and 95% coverage
gethedgesg(x1, x2)

# changing the defaults explicitely
gethedgesg(x1, x2, design = "within", coverage = 0.90 )

Ich hoffe, es hilft.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.