Wie werden gepoolte p-Werte für Tests in mehreren unterstellten Datensätzen ermittelt?


11

Mit Amelia in R erhielt ich mehrere unterstellte Datensätze. Danach führte ich einen Test mit wiederholten Messungen in SPSS durch. Jetzt möchte ich die Testergebnisse bündeln. Ich weiß, dass ich Rubins Regeln (implementiert durch ein beliebiges Paket mit mehreren Imputationen in R) verwenden kann, um Mittelwerte und Standardfehler zu bündeln, aber wie bündle ich p-Werte? Ist es möglich? Gibt es eine Funktion in R, um dies zu tun? Danke im Voraus.


Möglicherweise möchten Sie Informationen zur p-Wert-Metaanalyse abrufen. Ein guter Ausgangspunkt: en.wikipedia.org/wiki/Fisher%27s_method
user29889

Antworten:


13

Ja , das ist möglich und es gibt RFunktionen, die dies tun. Anstatt die p-Werte der wiederholten Analysen von Hand zu berechnen, können Sie das Paket verwenden Zelig, auf das auch in der Vignette des Pakets verwiesen wird Amelia( eine informativere Methode finden Sie in meinem Update unten ). Ich werde ein Beispiel aus der Amelia-vignette verwenden, um dies zu demonstrieren:

library("Amelia")
data(freetrade)
amelia.out <- amelia(freetrade, m = 15, ts = "year", cs = "country")

library("Zelig")
zelig.fit <- zelig(tariff ~ pop + gdp.pc + year + polity, data = amelia.out$imputations, model = "ls", cite = FALSE)
summary(zelig.fit)

Dies ist die entsprechende Ausgabe einschließlich Werten:p

  Model: ls
  Number of multiply imputed data sets: 15 

Combined results:

Call:
lm(formula = formula, weights = weights, model = F, data = data)

Coefficients:
                Value Std. Error t-stat  p-value
(Intercept)  3.18e+03   7.22e+02   4.41 6.20e-05
pop          3.13e-08   5.59e-09   5.59 4.21e-08
gdp.pc      -2.11e-03   5.53e-04  -3.81 1.64e-04
year        -1.58e+00   3.63e-01  -4.37 7.11e-05
polity       5.52e-01   3.16e-01   1.75 8.41e-02

For combined results from datasets i to j, use summary(x, subset = i:j).
For separate results, use print(summary(x), subset = i:j).

zeligkann eine Vielzahl anderer Modelle als die kleinsten Quadrate aufnehmen.

Um Konfidenzintervalle und Freiheitsgrade für Ihre Schätzungen zu erhalten, können Sie Folgendes verwenden mitools:

library("mitools")
imp.data <- imputationList(amelia.out$imputations)
mitools.fit <- MIcombine(with(imp.data, lm(tariff ~ polity + pop + gdp.pc + year)))
mitools.res <- summary(mitools.fit)
mitools.res <- cbind(mitools.res, df = mitools.fit$df)
mitools.res

Dies gibt Ihnen Konfidenzintervalle und einen Anteil der Gesamtvarianz, der auf die fehlenden Daten zurückzuführen ist:

              results       se    (lower    upper) missInfo    df
(Intercept)  3.18e+03 7.22e+02  1.73e+03  4.63e+03     57 %  45.9
pop          3.13e-08 5.59e-09  2.03e-08  4.23e-08     19 % 392.1
gdp.pc      -2.11e-03 5.53e-04 -3.20e-03 -1.02e-03     21 % 329.4
year        -1.58e+00 3.63e-01 -2.31e+00 -8.54e-01     57 %  45.9
polity       5.52e-01 3.16e-01 -7.58e-02  1.18e+00     41 %  90.8

Natürlich können Sie die interessanten Ergebnisse einfach in einem Objekt kombinieren:

combined.results <- merge(mitools.res, zelig.res$coefficients[, c("t-stat", "p-value")], by = "row.names", all.x = TRUE)

Aktualisieren

Nach einigem Herumspielen habe ich einen flexibleren Weg gefunden, um alle notwendigen Informationen mit dem mice-Paket zu erhalten. Damit dies funktioniert, müssen Sie die Funktion des Pakets ändern as.mids(). Verwenden Sie Gerkos Version, die in meiner Folgefrage veröffentlicht wurde :

as.mids2 <- function(data2, .imp=1, .id=2){
  ini <- mice(data2[data2[, .imp] == 0, -c(.imp, .id)], m = max(as.numeric(data2[, .imp])), maxit=0)
  names  <- names(ini$imp)
  if (!is.null(.id)){
    rownames(ini$data) <- data2[data2[, .imp] == 0, .id]
  }
  for (i in 1:length(names)){
    for(m in 1:(max(as.numeric(data2[, .imp])))){
      if(!is.null(ini$imp[[i]])){
        indic <- data2[, .imp] == m & is.na(data2[data2[, .imp]==0, names[i]])
        ini$imp[[names[i]]][m] <- data2[indic, names[i]]
      }
    } 
  }
  return(ini)
}

Wenn dies definiert ist, können Sie die unterstellten Datensätze analysieren:

library("mice")
imp.data <- do.call("rbind", amelia.out$imputations)
imp.data <- rbind(freetrade, imp.data)
imp.data$.imp <- as.numeric(rep(c(0:15), each = nrow(freetrade)))
mice.data <- as.mids2(imp.data, .imp = ncol(imp.data), .id = NULL)

mice.fit <- with(mice.data, lm(tariff ~ polity + pop + gdp.pc + year))
mice.res <- summary(pool(mice.fit, method = "rubin1987"))

Dadurch erhalten Sie alle Ergebnisse , die Sie erhalten mit Zeligund mitoolsund mehr:

                  est       se     t    df Pr(>|t|)     lo 95     hi 95 nmis   fmi lambda
(Intercept)  3.18e+03 7.22e+02  4.41  45.9 6.20e-05  1.73e+03  4.63e+03   NA 0.571  0.552
pop          3.13e-08 5.59e-09  5.59 392.1 4.21e-08  2.03e-08  4.23e-08    0 0.193  0.189
gdp.pc      -2.11e-03 5.53e-04 -3.81 329.4 1.64e-04 -3.20e-03 -1.02e-03    0 0.211  0.206
year        -1.58e+00 3.63e-01 -4.37  45.9 7.11e-05 -2.31e+00 -8.54e-01    0 0.570  0.552
polity       5.52e-01 3.16e-01  1.75  90.8 8.41e-02 -7.58e-02  1.18e+00    2 0.406  0.393

pool()pdfmethodR.2

pool.r.squared(mice.fit)

mice.fit2 <- with(mice.data, lm(tariff ~ polity + pop + gdp.pc))
pool.compare(mice.fit, mice.fit2, method = "Wald")$pvalue

1
Tolle Antwort, wollte nur auf einen kleinen Tippfehler hinweisen, ich denke du meintest : mice.res <- summary(pool(mice.fit, method = "rubin1987")).
FrankD

Guter Fang. Ich habe den Tippfehler korrigiert.
Crsh

8

Normalerweise würden Sie den p-Wert nehmen, indem Sie Rubins Regeln auf herkömmliche statistische Parameter wie Regressionsgewichte anwenden. Daher besteht häufig keine Notwendigkeit, p-Werte direkt zu bündeln. Außerdem kann die Likelihood-Ratio-Statistik zusammengefasst werden, um Modelle zu vergleichen. Pooling-Verfahren für andere Statistiken finden Sie in meinem Buch Flexible Imputation fehlender Daten, Kapitel 6.

In Fällen, in denen keine Verteilung oder Methode bekannt ist, gibt es ein unveröffentlichtes Verfahren von Licht und Rubin für einseitige Tests. Ich habe dieses Verfahren verwendet, um p-Werte aus dem wilcoxon()Verfahren zusammenzufassen, aber es ist allgemein und unkompliziert, sich an andere Verwendungen anzupassen.

Verwenden Sie das unten stehende Verfahren NUR, wenn alles andere fehlschlägt. Derzeit wissen wir wenig über die statistischen Eigenschaften.

lichtrubin <- function(fit){
    ## pools the p-values of a one-sided test according to the Licht-Rubin method
    ## this method pools p-values in the z-score scale, and then transforms back 
    ## the result to the 0-1 scale
    ## Licht C, Rubin DB (2011) unpublished
    if (!is.mira(fit)) stop("Argument 'fit' is not an object of class 'mira'.")
    fitlist <- fit$analyses
        if (!inherits(fitlist[[1]], "htest")) stop("Object fit$analyses[[1]] is not an object of class 'htest'.")
    m <- length(fitlist)
    p <- rep(NA, length = m)
    for (i in 1:m) p[i] <- fitlist[[i]]$p.value
    z <- qnorm(p)  # transform to z-scale
    num <- mean(z)
    den <- sqrt(1 + var(z))
    pnorm( num / den) # average and transform back
}

@ Stef van Buuren Was meinst du mit "nimm den p-Wert, indem du Rubins Regeln auf herkömmliche statistische Parameter wie Regressionsgewichte anwendest"? Wie kommt die pool() Funktion in Ihrem Paket (die übrigens hervorragend ist ) zum gepoolten p-Wert?
Llewmills
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.