Ist die Randomisierung bei kleinen Stichproben zuverlässig?


11

Jerome Cornfield hat geschrieben:

Eine der schönsten Früchte der Fischerrevolution war die Idee der Randomisierung, und Statistiker, die sich in wenigen anderen Dingen einig sind, haben sich zumindest darauf geeinigt. Trotz dieser Vereinbarung und trotz der weit verbreiteten Verwendung randomisierter Zuordnungsverfahren in klinischen und anderen Formen des Experimentierens ist sein logischer Status, dh die genaue Funktion, die er ausführt, immer noch unklar.

Cornfield, Jerome (1976). "Aktuelle methodische Beiträge zu klinischen Studien" . American Journal of Epidemiology 104 (4): 408–421.

Auf dieser Website und in einer Vielzahl von Literaturstellen sehe ich immer wieder zuversichtliche Behauptungen über die Möglichkeiten der Randomisierung. Starke Begriffe wie "es beseitigt das Problem verwirrender Variablen" sind weit verbreitet. Sehen hier zum Beispiel. Aus praktischen / ethischen Gründen werden jedoch häufig Experimente mit kleinen Proben (3-10 Proben pro Gruppe) durchgeführt. Dies ist in der präklinischen Forschung mit Tieren und Zellkulturen sehr häufig, und die Forscher geben häufig p-Werte an, um ihre Schlussfolgerungen zu stützen.

Ich habe mich gefragt, wie gut Randomisierung ist, um Verwirrungen auszugleichen. Für diese Darstellung habe ich eine Situation modelliert, in der Behandlungs- und Kontrollgruppen mit einer Konfusion verglichen wurden, die zwei Werte mit einer Wahrscheinlichkeit von 50/50 annehmen könnte (z. B. Typ1 / Typ2, männlich / weiblich). Es zeigt die Verteilung von "% unausgeglichen" (Unterschied in der Anzahl von Typ 1 zwischen Behandlungs- und Kontrollproben geteilt durch die Probengröße) für Studien mit einer Vielzahl kleiner Probengrößen. Die roten Linien und die rechten Achsen zeigen das ecdf.

Wahrscheinlichkeit verschiedener Gleichgewichtsgrade unter Randomisierung für kleine Stichprobengrößen: Geben Sie hier die Bildbeschreibung ein

Zwei Dinge ergeben sich aus dieser Handlung (es sei denn, ich habe irgendwo etwas durcheinander gebracht).

1) Die Wahrscheinlichkeit, genau ausgeglichene Proben zu erhalten, nimmt mit zunehmender Probengröße ab.

2) Die Wahrscheinlichkeit, eine sehr unausgeglichene Probe zu erhalten, nimmt mit zunehmender Probengröße ab.

3) Im Fall von n = 3 für beide Gruppen besteht eine 3% ige Chance, eine völlig unausgeglichene Gruppe von Gruppen zu erhalten (alle Typ1 in der Kontrolle, alle Typ2 in der Behandlung). N = 3 ist für molekularbiologische Experimente üblich (z. B. Messung von mRNA mit PCR oder Proteine ​​mit Western Blot)

Als ich den Fall n = 3 weiter untersuchte, beobachtete ich ein seltsames Verhalten der p-Werte unter diesen Bedingungen. Die linke Seite zeigt die Gesamtverteilung der p-Werte, die unter Verwendung von t-Tests unter Bedingungen unterschiedlicher Mittelwerte für die Untergruppe Typ 2 berechnet wurden. Der Mittelwert für Typ 1 war 0 und sd = 1 für beide Gruppen. Die rechten Felder zeigen die entsprechenden falsch positiven Raten für nominelle "Signifikanzgrenzwerte" von 0,05 bis 0001.

Verteilung der p-Werte für n = 3 mit zwei Untergruppen und unterschiedlichen Mitteln der zweiten Untergruppe im Vergleich über den t-Test (10000 Monte-Carlo-Läufe): Geben Sie hier die Bildbeschreibung ein

Hier sind die Ergebnisse für n = 4 für beide Gruppen: Geben Sie hier die Bildbeschreibung ein

Für n = 5 für beide Gruppen: Geben Sie hier die Bildbeschreibung ein

Für n = 10 für beide Gruppen: Geben Sie hier die Bildbeschreibung ein

Wie aus den obigen Diagrammen ersichtlich ist, scheint es eine Wechselwirkung zwischen Stichprobengröße und Unterschied zwischen Untergruppen zu geben, die zu einer Vielzahl von p-Wert-Verteilungen unter der Nullhypothese führt, die nicht einheitlich sind.

Können wir daraus schließen, dass p-Werte für richtig randomisierte und kontrollierte Experimente mit kleiner Stichprobengröße nicht zuverlässig sind?

R-Code für das erste Diagramm

require(gtools)

#pdf("sim.pdf")
par(mfrow=c(4,2))
for(n in c(3,4,5,6,7,8,9,10)){
  #n<-3
  p<-permutations(2, n, repeats.allowed=T)

  #a<-p[-which(duplicated(rowSums(p))==T),]
  #b<-p[-which(duplicated(rowSums(p))==T),]

  a<-p
  b<-p

  cnts=matrix(nrow=nrow(a))
  for(i in 1:nrow(a)){
    cnts[i]<-length(which(a[i,]==1))
  }


  d=matrix(nrow=nrow(cnts)^2)
  c<-1
  for(j in 1:nrow(cnts)){
    for(i in 1:nrow(cnts)){
      d[c]<-cnts[j]-cnts[i]
      c<-c+1
    }
  }
  d<-100*abs(d)/n

  perc<-round(100*length(which(d<=50))/length(d),2)

  hist(d, freq=F, col="Grey", breaks=seq(0,100,by=1), xlab="% Unbalanced",
       ylim=c(0,.4), main=c(paste("n=",n))
  )
  axis(side=4, at=seq(0,.4,by=.4*.25),labels=seq(0,1,,by=.25), pos=101)
  segments(0,seq(0,.4,by=.1),100,seq(0,.4,by=.1))
  lines(seq(1,100,by=1),.4*cumsum(hist(d, plot=F, breaks=seq(0,100,by=1))$density),
        col="Red", lwd=2)

}

R-Code für die Diagramme 2-5

for(samp.size in c(6,8,10,20)){
  dev.new()
  par(mfrow=c(4,2))
  for(mean2 in c(2,3,10,100)){
    p.out=matrix(nrow=10000)

    for(i in 1:10000){

      d=NULL
      #samp.size<-20
      for(n in 1:samp.size){
        s<-rbinom(1,1,.5)
        if(s==1){
          d<-rbind(d,rnorm(1,0,1))
        }else{
          d<-rbind(d,rnorm(1,mean2,1))
        }
      }

      p<-t.test(d[1:(samp.size/2)],d[(1+ samp.size/2):samp.size], var.equal=T)$p.value

      p.out[i]<-p
    }


    hist(p.out, main=c(paste("Sample Size=",samp.size/2),
                       paste( "% <0.05 =", round(100*length(which(p.out<0.05))/length(p.out),2)),
                       paste("Mean2=",mean2)
    ), breaks=seq(0,1,by=.05), col="Grey", freq=F
    )

    out=NULL
    alpha<-.05
    while(alpha >.0001){

      out<-rbind(out,cbind(alpha,length(which(p.out<alpha))/length(p.out)))
      alpha<-alpha-.0001
    }

    par(mar=c(5.1,4.1,1.1,2.1))
    plot(out, ylim=c(0,max(.05,out[,2])),
         xlab="Nominal alpha", ylab="False Postive Rate"
    )
    par(mar=c(5.1,4.1,4.1,2.1))
  }

}
#dev.off()

Ich fand Ihre Beschreibung der Bedingungen und des Problems zunächst etwas schwer zu verstehen. Typ I und Typ II sind Fachbegriffe, die sich von Ihrer Verwendung der Untergruppe Typ 1 und der Untergruppe Typ 2 unterscheiden. Soweit ich das beurteilen kann, wenden Sie einen T-Test mit einer Mischung von Mitteln auf Daten aus einer Verteilung an. Ist das richtig?
Michael Lew

Ja, eine Mischung aus zwei Normalverteilungen. "Typ1" bezieht sich auf N (0,1), Typ2 ist N (Mittelwert2,1). Wobei Mittelwert2 = (2,3,10 oder 100). Entschuldigung, ich könnte es in Typ A, Typ B ändern, wenn Sie denken, dass das helfen würde?
Flasche

Antworten:


4

Sie weisen zu Recht auf die Einschränkungen der Randomisierung beim Umgang mit unbekannten Störgrößen für sehr kleine Stichproben hin. Das Problem ist jedoch nicht, dass die P-Werte nicht zuverlässig sind, sondern dass ihre Bedeutung mit der Stichprobengröße und der Beziehung zwischen den Annahmen der Methode und den tatsächlichen Eigenschaften der Populationen variiert.

Ich gehe von Ihren Ergebnissen aus, dass die P-Werte ziemlich gut abschnitten, bis der Unterschied in den Untergruppenmitteln so groß war, dass jeder vernünftige Experimentator wissen würde, dass vor dem Experiment ein Problem aufgetreten ist.

Die Idee, dass ein Experiment durchgeführt und analysiert werden kann, ohne auf ein angemessenes Verständnis der Art der Daten Bezug zu nehmen, ist falsch. Bevor Sie einen kleinen Datensatz analysieren, müssen Sie genug über die Daten wissen, um die in der Analyse implizierten Annahmen sicher verteidigen zu können. Dieses Wissen stammt üblicherweise aus früheren Studien, die dasselbe oder ein ähnliches System verwenden, Studien, die formell veröffentlichte Werke oder informelle „vorläufige“ Experimente sein können.


Ich stimme allem zu, was Sie gesagt haben, jedoch werden T-Tests oft "rituell" durchgeführt, wie Gerd Gigerenzer es ausdrücken würde. In der Praxis haben die Personen, die diese Tests durchführen, nicht die Zeit / Neigung, die Nuancen ihrer Arbeit zu verstehen. Aus diesem Grund denke ich, dass das "unzuverlässige" Adjektiv passend sein kann. Ich kenne Forscher, die, wenn Sie nach der Verteilung fragen (gab es eine hohe oder was hat diesen großen Fehlerbalken verursacht?), Sie sich das noch nie angesehen haben.
Flasche

1
Nun, was P-Werte wirklich "bedeuten", unterscheidet sich ziemlich von dem, was die meisten Leute annehmen. Sogar die vielen Papiere, die P-Werte als "unvereinbar mit Beweisen" und dergleichen kritisieren, irren sich. Ich habe gestern ein Papier auf arXiv hochgeladen, das die Eigenschaften von P-Werten untersucht und zeigt, wie sie sich auf die Art der Beweise beziehen, die Experimentatoren verwenden können. Sein Titel lautet "An P oder nicht an P: über die Beweiskraft von P-Werten und ihren Platz in der wissenschaftlichen Folgerung" und seine arXiv-Einreichungsnummer lautet 826269. Er sollte ab Montag verfügbar sein.
Michael Lew

Könnten Sie sich diese Frage ansehen, die aus irgendeinem Grund keine Liebe gefunden hat? . Ich bin damit einverstanden, dass p-Werte etwas sind , und Ihr Papier kann helfen, dies zu klären, aber als Forscher muss ich klarstellen, dass die Stiefel auf dem Boden pov sind, dass sie uns gescheitert sind. Dies ist entweder aufgrund von Missbrauch oder angeborener Unangemessenheit unklar. Ich habe hier eine Reihe von Fragen gestellt, um den Standpunkt der Statistiker zu ermitteln.
Flasche

2

In der ökologischen Forschung ist die nicht zufällige Zuordnung von Behandlungen zu experimentellen Einheiten (Probanden) Standard, wenn die Stichprobengröße klein ist und Hinweise auf eine oder mehrere verwirrende Variablen vorliegen. Diese nicht zufällige Zuordnung "verteilt" die Subjekte über das Spektrum möglicherweise verwirrender Variablen, was genau das ist, was zufällige Zuweisungen tun sollen. Bei kleinen Stichprobengrößen ist es jedoch wahrscheinlicher, dass die Randomisierung schlecht abschneidet (wie oben gezeigt), und daher kann es eine schlechte Idee sein, sich darauf zu verlassen.

Da die Randomisierung in den meisten Bereichen (und zu Recht) so stark befürwortet wird, kann man leicht vergessen, dass das Endziel darin besteht, die Verzerrung zu verringern, anstatt sich an eine strikte Randomisierung zu halten. Es ist jedoch Aufgabe der Forscher, die Reihe der verwirrenden Variablen effektiv zu charakterisieren und die nicht zufällige Zuordnung auf eine vertretbare Weise durchzuführen, die für experimentelle Ergebnisse blind ist und alle verfügbaren Informationen und Zusammenhänge nutzt.

Für eine Zusammenfassung siehe S. 192-198 in Hurlbert, Stuart H. 1984. Pseudoreplikation und die Gestaltung von Feldversuchen. Ecological Monographs 54 (2), S. 187-211.


Ich habe es genossen, dies zu lesen, bin jedoch besorgt, dass Ihre Verwendung von "Voreingenommenheit" im vorletzten Absatz möglicherweise falsch verstanden wird, da dieser Begriff eine bestimmte statistische Bedeutung hat, die Ihre Aussage falsch machen würde. Versuchen Sie nicht eher zu sagen, dass Randomisierung Verwechslungen verhindern soll (eine Form von "Verzerrung" im umgangssprachlichen Sinne), anstatt Verzerrungen zu verringern (als Maß für die Ungenauigkeit eines Schätzers)?
whuber

Ich beziehe mich auf Voreingenommenheit im statistischen Sinne. In der Statistik ist „Bias“ der Unterschied zwischen einer Statistik und dem von ihr geschätzten Parameter. Wie Sie bereits erwähnt haben, ist die Abweichung eines Schätzers die Differenz zwischen dem erwarteten Wert des Schätzers und dem wahren Wert des Parameters, den er schätzt. In meinem Beitrag bezog ich mich mit „Bias“ auf den Unterschied zwischen Statistiken, die aus den Daten berechnet wurden, und den Parametern, die sie schätzen - zum Beispiel zwischen dem Stichprobenmittelwert (x bar) und dem wahren Mittelwert (mu).
Darren James

Soweit mir bekannt ist, wird die randomisierte Stichprobe weder zur Verringerung der Verzerrung verwendet, noch kann unter vielen Umständen gültig behauptet werden, dass sie die Verzerrung verringert.
whuber

Du liegst falsch. Das Hauptziel der Randomisierung besteht darin, den Effekt der Unabhängigkeit zu simulieren. Dies geschieht durch die Beseitigung von Verzerrungen, die durch die systematische Zuordnung von Behandlungen zu Probanden entstehen. Diese Verzerrungen führen zu ungenauen Schätzungen - vor allem zu verzerrten Varianzschätzungen - und zu einem Kontrollverlust über Fehler vom Typ I und II. Selbst verwirrende Variablen (die wirklich einen Mangel an Unabhängigkeit bedeuten) sind einfach ein Fall von ausgelassener variabler Verzerrung. Aber Sie müssen nicht mein Wort dafür nehmen ... Wenn Sie von der obigen Hurlburt-Zeitung nicht überzeugt sind, sind hier einige andere Ressourcen zu konsultieren:
Darren James

Cochran, WG und GM Cox. 1957. Versuchspläne. New York: Wiley. Federer, WT 1955. Experimentelles Design. New York: Macmillan. Hinkelmann, K. und Kempthorne, O. 1994. Design und Analyse von Experimenten. Wiley: New York. Kuehl, RO 2000. Versuchsplanung: Statistische Grundlagen der Forschungsgestaltung und -analyse. Belmont, Kalifornien: Brooks / Cole.
Darren James
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.