Ich habe einen Datensatz, der ~ 7.500 Blutuntersuchungen von ~ 2.500 Personen enthält. Ich versuche herauszufinden, ob die Variabilität der Blutuntersuchungen mit der Zeit zwischen zwei Tests zunimmt oder abnimmt. Zum Beispiel: Ich ziehe Ihr Blut für den Basistest und ziehe dann sofort eine zweite Probe. Sechs Monate später ziehe ich eine weitere Probe. Man könnte erwarten, dass der Unterschied zwischen dem Basislinien- und dem Sofortwiederholungstest geringer ist als der Unterschied zwischen dem Basislinien- und dem Sechsmonatstest.
Jeder Punkt auf dem Diagramm unten spiegelt den Unterschied zwischen zwei Tests wider. X ist die Anzahl der Tage zwischen zwei Tests; Y ist die Größe der Differenz zwischen den beiden Tests. Wie Sie sehen können, sind die Tests nicht gleichmäßig auf X verteilt - die Studie war eigentlich nicht darauf ausgelegt, diese Frage zu beantworten. Da die Punkte im Mittelwert so stark gestapelt sind, habe ich 95% (blau) und 99% (rot) Quantillinien eingefügt, basierend auf 28-Tage-Fenstern. Diese werden offensichtlich von den extremeren Punkten herumgezogen, aber Sie bekommen die Idee.
Alternativtext http://a.imageshack.us/img175/6595/diffsbydays.png
Mir scheint, dass die Variabilität ziemlich stabil ist. Wenn überhaupt, ist es höher, wenn der Test innerhalb kurzer Zeit wiederholt wird - das ist furchtbar intuitiv. Wie kann ich dies systematisch angehen und dabei zu jedem Zeitpunkt (und in einigen Zeiträumen ohne Tests) unterschiedliche n berücksichtigen? Ihre Ideen werden sehr geschätzt.
Nur als Referenz ist dies die Verteilung der Anzahl der Tage zwischen Test und erneutem Test:
Alternativtext http://a.imageshack.us/img697/6572/testsateachtimepoint.png