Ich weiß nichts über Genexpressionsstudien, aber ich habe ein gewisses Interesse an multipler Inferenz, daher werde ich trotzdem eine Antwort auf diesen Teil der Frage riskieren.
Persönlich würde ich das Problem nicht so angehen. Ich würde die Fehlerstufe in den ursprünglichen Studien anpassen, die neue Überlappung berechnen und den Test am Ende in Ruhe lassen. Wenn die Anzahl der differentiell exprimierten Gene (und jedes andere Ergebnis, das Sie verwenden) bereits auf angepassten Tests basiert, würde ich argumentieren, dass Sie nichts tun müssen.
Wenn Sie nicht zu den ursprünglichen Daten zurückkehren können und den p- Wert wirklich anpassen möchten , können Sie ihn zwar mit der Anzahl der Tests multiplizieren, aber ich verstehe nicht, warum dies etwas mit der Größe von list2 zu tun haben sollte. Es wäre sinnvoller, die Gesamtzahl der in beiden Studien durchgeführten Tests (dh das Zweifache der Grundgesamtheit) anzupassen. Dies wird jedoch brutal sein.
Um p- Werte in R anzupassen , können Sie verwenden p.adjust(p)
, wobei p
ein Vektor von p- Werten ist.
p.adjust(p, method="bonferroni") # Bonferroni method, simple multiplication
p.adjust(p, method="holm") # Holm-Bonferroni method, more powerful than Bonferroni
p.adjust(p, method="BH") # Benjamini-Hochberg
Wie in der Hilfedatei angegeben, gibt es keinen Grund, Holm-Bonferroni nicht über Bonferroni zu verwenden, da es in jedem Fall eine starke Kontrolle über die familienbezogene Fehlerrate bietet, aber leistungsfähiger ist. Benjamini-Hochberg kontrolliert die Falschentdeckungsrate, was ein weniger strenges Kriterium ist.
Nach dem Kommentar unten bearbeitet:
Je mehr ich über das Problem nachdenke, desto mehr denke ich, dass eine Korrektur für mehrere Vergleiche in dieser Situation unnötig und unangemessen ist. Hier setzt die Vorstellung einer „Familie“ von Hypothesen an. Ihr letzter Test ist nicht ganz mit allen früheren Tests vergleichbar, es besteht kein Risiko, „vom Zufall zu profitieren“ oder signifikante Ergebnisse zu erzielen, es gibt nur einen Test von Interesse und es ist legitim, die normale Fehlerstufe für diesen zu verwenden.
Selbst wenn Sie die vielen zuvor durchgeführten Tests aggressiv korrigieren, würden Sie das Hauptproblem nicht direkt ansprechen, nämlich die Tatsache, dass einige der Gene in beiden Listen möglicherweise fälschlicherweise als unterschiedlich exprimiert erkannt wurden. Die früheren Testergebnisse bleiben erhalten, und wenn Sie diese Ergebnisse interpretieren und gleichzeitig die familienbezogene Fehlerrate steuern möchten, müssen Sie auch alle korrigieren.
Wenn die Nullhypothese jedoch wirklich für alle Gene gilt, wäre jedes signifikante Ergebnis falsch positiv und Sie würden nicht erwarten, dass dasselbe Gen in der nächsten Probe erneut markiert wird. Eine Überlappung zwischen beiden Listen würde daher nur zufällig erfolgen, und genau dies testet der auf der hypergeometrischen Verteilung basierende Test. Selbst wenn die Liste der Gene vollständig ist, ist das Ergebnis dieses letzten Tests sicher. Intuitiv scheint alles dazwischen (eine Mischung aus wahren und falschen Hypothesen) auch in Ordnung zu sein.
Vielleicht könnte jemand mit mehr Erfahrung auf diesem Gebiet abwägen, aber ich denke, eine Anpassung wäre nur notwendig, wenn Sie die Gesamtzahl der nachgewiesenen Gene vergleichen oder herausfinden möchten, welche unterschiedlich exprimiert werden, dh wenn Sie die Tausenden von Individuen interpretieren möchten Tests in jeder Studie durchgeführt.