In einem Blog-Beitrag habe ich die Behauptung gefunden, dass
"Ich glaube, WG Cochrane weist zum ersten Mal (ungefähr in den 1970er Jahren) darauf hin, dass kleine Konfidenzgrößen bei Konfidenzintervallen in einer Beobachtungsumgebung zu einer besseren Abdeckung führen, wobei ausreichend große Stichproben eine Abdeckung nahe Null bieten!"
Jetzt gehe ich davon aus, dass sich die CI-Breite mit zunehmender Stichprobengröße 0 nähern sollte, aber die Idee, dass sich die Abdeckung gleichzeitig verschlechtern würde, überzeugt mich nicht. Ist diese Behauptung wahr und unter welchen Umständen? Oder verstehe ich es falsch?
Ich habe eine Simulation mit zufälligen normalverteilten Daten mit Stichprobengrößen von 10000 bis 1000000 (T-Test mit einer Stichprobe, 95% CI), 1000 Durchläufen bei jeder Stichprobengröße durchgeführt, und die Abdeckung wurde für die höheren Stichprobengrößen nicht schlechter (Stattdessen fand ich die erwartete nahezu konstante Fehlerrate von ~ 5%).

