Neulich habe ich mich mit einem Epidemiologen beraten lassen. Sie ist Ärztin mit einem Abschluss in Epidemiologie im Gesundheitswesen und verfügt über umfangreiche statistische Kenntnisse. Sie betreut ihre Forschungsstipendiaten und Bewohner und hilft ihnen bei statistischen Fragen. Sie versteht Hypothesentests ziemlich gut. Sie hatte das typische Problem, zwei Gruppen zu vergleichen, um festzustellen, ob ein Unterschied im Risiko besteht, an einer Herzinsuffizienz (CHF) zu erkranken. Sie testete den mittleren Unterschied im Anteil der Probanden, die CHF erhielten. Der p-Wert betrug 0,08. Dann entschied sie sich auch für das relative Risiko und erhielt einen p-Wert von 0,027. Also fragte sie, warum der eine bedeutsam ist und der andere nicht. Bei Betrachtung von 95% zweiseitigen Konfidenzintervallen für die Differenz und für das Verhältnis stellte sie fest, dass das mittlere Differenzintervall 0 enthielt, die obere Konfidenzgrenze für das Verhältnis jedoch unter 1 lag. Warum erhalten wir also inkonsistente Ergebnisse? Meine technisch korrekte Antwort war nicht sehr zufriedenstellend. Ich sagte: "Dies sind unterschiedliche Statistiken und können unterschiedliche Ergebnisse liefern. Die p-Werte liegen beide im Bereich von geringfügiger Bedeutung. Dies kann leicht passieren." Ich denke, es muss bessere Möglichkeiten geben, dies den Ärzten gegenüber als Laien zu beantworten, damit sie den Unterschied zwischen dem Testen des relativen Risikos und dem absoluten Risiko verstehen. In epi-Studien tritt dieses Problem häufig auf, weil sie seltene Ereignisse untersuchen, bei denen die Inzidenzraten für beide Gruppen sehr gering und die Stichprobengröße nicht sehr groß sind. Ich habe ein wenig darüber nachgedacht und habe einige Ideen, die ich teilen werde. Aber zuerst würde ich gerne hören, wie einige von Ihnen damit umgehen würden. Ich weiß, dass viele von Ihnen im medizinischen Bereich arbeiten oder sich beraten lassen und sich wahrscheinlich mit diesem Problem befasst haben. Was würden Sie tun?