In meinem Statistikprogramm werden sowohl die Verfahren Benjamini & Hochberg (1995) als auch Benjamini & Yekutieli (2001) für die Falschentdeckungsrate (FDR) implementiert. Ich habe mein Bestes getan, um die spätere Abhandlung durchzulesen, aber sie ist ziemlich mathematisch dicht und ich bin nicht sicher, ob ich den Unterschied zwischen den Abläufen verstehe. Ich kann anhand des zugrunde liegenden Codes in meinem Statistikprogramm erkennen, dass diese tatsächlich unterschiedlich sind und dass letzterer eine Menge q enthält, auf die ich in Bezug auf FDR Bezug genommen habe, die ich aber auch nicht ganz verstehe.
Gibt es einen Grund, das Benjamini & Hochberg (1995) -Verfahren dem Benjamini & Yekutieli (2001) -Verfahren vorzuziehen? Haben sie unterschiedliche Annahmen? Was sind die praktischen Unterschiede zwischen diesen Ansätzen?
Benjamini, Y. und Hochberg, Y. (1995). Kontrolle der Rate falscher Entdeckungen: ein praktischer und leistungsstarker Ansatz für mehrere Tests. Zeitschrift der Royal Statistical Society Series B, 57, 289–300.
Benjamini, Y. und Yekutieli, D. (2001). Die Kontrolle der Falschentdeckungsrate bei Mehrfachtests in Abhängigkeit. Annals of Statistics 29, 1165–1188.
Das Papier von 1999, auf das in den nachstehenden Kommentaren Bezug genommen wird: Yekutieli, D. & Benjamini, Y. (1999). Resampling-basierte Falscherkennungsrate, die mehrere Testverfahren für korrelierte Teststatistiken steuert. Journal of Statistical Planning and Inference, 82 (1), 171-196.