Dies zeigt, dass 100 Messungen für 5 Probanden weniger Informationen liefern als 5 Messungen für 100 Probanden


21

Auf einer Konferenz habe ich die folgende Aussage gehört:

100 Messungen für 5 Probanden liefern viel weniger Informationen als 5 Messungen für 100 Probanden.

Es ist ein bisschen offensichtlich, dass dies wahr ist, aber ich habe mich gefragt, wie man es mathematisch beweisen könnte ... Ich denke, ein lineares gemischtes Modell könnte verwendet werden. Allerdings weiß ich nicht viel über die Mathematik, mit der sie geschätzt wurden (ich arbeite nur lmer4für LMMs und bmrsGLMMs :) Können Sie mir ein Beispiel zeigen, wo dies zutrifft? Ich würde eine Antwort mit einigen Formeln vorziehen, als nur einem Code in R. Nehmen Sie eine einfache Einstellung an, wie zum Beispiel ein lineares gemischtes Modell mit normalverteilten zufälligen Abschnitten und Steigungen.

PS Eine mathematische Antwort, die keine LMMs beinhaltet, wäre auch in Ordnung. Ich dachte an LMMs, weil sie für mich das natürliche Werkzeug waren, um zu erklären, warum weniger Kennzahlen von mehr Probanden besser sind als mehr Kennzahlen von wenigen Probanden, aber ich kann mich durchaus irren.


3
+1. Ich denke, die einfachste Einstellung wäre, eine Aufgabe zur Schätzung des Populationsmittelwerts μ in Betracht zu ziehen, bei der jedes Subjekt seinen eigenen Mittelwert aN(μ,σa2) und jede Messung dieses Subjekts als xN(a,σ2) . Wenn wir n von jedem der Messungen m Probanden, was ist dann der optimale Weg zum Set n und m gegeben konstanten Produkt nm=N .
Amöbe sagt Reinstate Monica

"Optimal" im Sinne einer Minimierung der Varianz des Stichprobenmittels der erfassten Datenpunkte. N
Amöbe sagt Reinstate Monica

1
Ja. Bei Ihrer Frage müssen wir uns jedoch nicht darum kümmern, wie die Abweichungen geschätzt werden. Ihre Frage (dh das Zitat in Ihrer Frage) ist meines Erachtens nur die Schätzung des globalen Mittelwerts und es scheint offensichtlich, dass der beste Schätzer durch den Mittelwert ˉ x aller N = n m Punkte in der Stichprobe gegeben ist. Die Frage lautet dann: Was ist bei μ , σ 2 , σ 2 a , n und m die Varianz von ˉ x ? Wenn wir das wissen, können wir es in Bezug auf n minimieren, wenn n m gegeben istμx¯N=nmμσ2σa2nmx¯n Einschränkung. nm=N
Amöbe sagt Reinstate Monica

1
Ich weiß nicht, wie ich irgendetwas davon ableiten kann, aber ich stimme zu, dass es offensichtlich erscheint: Um die Fehlervarianz abzuschätzen, ist es am besten, alle Messungen von einem einzigen Subjekt zu haben; und um die Subjektvarianz abzuschätzen, wäre es (wahrscheinlich?) am besten, N verschiedene Subjekte mit jeweils 1 Messung zu haben. Es ist zwar nicht so klar über den Mittelwert, aber meine Intuition sagt mir, dass es auch am besten wäre , N Probanden mit je 1 Messung zu haben. Ich frage mich, ob das stimmt ...NNN
Amöbe sagt Reinstate Monica

2
Vielleicht in etwa so: Die Varianz der Stichprobenmittelwerte pro Subjekt sollte , wobei der erste Term die Subjektvarianz und der zweite die Varianz der Schätzung des Mittelwerts jedes Subjekts ist. Dann ist die Varianz des Mittelwerts (dh des Gesamtmittelwerts) der Überobjekte ( σ 2 a + σ 2 / n ) / m = σ 2 a / m + σ 2 / ( n m ) = σ 2 a / mσa2+σ2/n was minimiert wird, wenn m = N ist .
(σa2+σ2/n)/m=σa2/m+σ2/(nm)=σa2/m+σ2/N=σa2/m+const,
m=N
Amöbe sagt Reinstate Monica

Antworten:


25

Die kurze Antwort ist, dass Ihre Vermutung wahr ist, wenn und nur wenn es eine positive Korrelation zwischen den Klassen in den Daten gibt . Empirisch gesehen weisen die meisten Cluster-Datensätze die meiste Zeit eine positive Korrelation innerhalb der Klasse auf, was bedeutet, dass Ihre Vermutung in der Praxis normalerweise wahr ist. Wenn die klasseninterne Korrelation jedoch 0 ist, sind die beiden von Ihnen genannten Fälle gleichermaßen informativ. Und wenn die klasseninterne Korrelation negativ ist , ist es weniger aussagekräftig , weniger Messungen an mehr Probanden durchzuführen. Wir würden es eigentlich vorziehen (was die Verringerung der Varianz der Parameterschätzung betrifft), alle unsere Messungen an einem einzigen Objekt durchzuführen.

Statistisch gesehen gibt es zwei Perspektiven , aus denen wir darüber nachdenken können: ein Zufallseffekt (oder gemischt ) Modell , das Sie in Ihrer Frage erwähnen, oder ein Randmodell , das hier ein bisschen mehr informativ landet.

Modell mit zufälligen Effekten (gemischt)

Angenommen, wir haben eine Gruppe von Probanden, von denen wir jeweils m Messungen vorgenommen haben. Dann wird ein einfaches Zufallseffekt - Modell der j - ten Messung vom i könnte tH unterliegen y i j = β + u i + e i j , wobei β die feste intercept ist, u i ist der Zufall Subjekt - Effekt (mit der Varianz σ 2 u ), e i j ist der Beobachtungsebenenfehlerterm (mit Varianz σ 2 enmji

yij=β+ui+eij,
βuiσu2eijσe2), und die letzten beiden zufälligen Terme sind unabhängig.

In diesem Modell stellt den Populationsmittelwert dar, und bei einem ausgeglichenen Datensatz (dh einer gleichen Anzahl von Messungen von jedem Subjekt) ist unsere beste Schätzung einfach der Stichprobenmittelwert. Wenn wir also "mehr Informationen" als kleinere Varianz für diese Schätzung ansehen, möchten wir im Grunde wissen, wie die Varianz des Stichprobenmittelwerts von n und m abhängt . Mit ein bisschen Algebra können wir dieses var ( 1βnm

var(1nmijyij)=var(1nmijβ+ui+eij)=1n2m2var(ijui+ijeij)=1n2m2(m2ivar(ui)+ijvar(eij))=1n2m2(nm2σu2+nmσe2)=σu2n+σe2nm.
σu2>0nm

mnnm

σu2n+constant,
n is as large as possible (up to a maximum of n=nm, in which case m=1, meaning we take a single measurement from each subject).

My short answer referred to the intra-class correlation, so where does that fit in? In this simple random-effects model the intra-class correlation is

ρ=σu2σu2+σe2
(sketch of a derivation here). So we can write the variance equation above as
var(1nmijyij)=σu2n+σe2nm=(ρn+1ρnm)(σu2+σe2)
This doesn't really add any insight to what we already saw above, but it does make us wonder: since the intra-class correlation is a bona fide correlation coefficient, and correlation coefficients can be negative, what would happen (and what would it mean) if the intra-class correlation were negative?

In the context of the random-effects model, a negative intra-class correlation doesn't really make sense, because it implies that the subject variance σu2 is somehow negative (as we can see from the ρ equation above, and as explained here and here)... but variances can't be negative! But this doesn't mean that the concept of a negative intra-class correlation doesn't make sense; it just means that the random-effects model doesn't have any way to express this concept, which is a failure of the model, not of the concept. To express this concept adequately we need to consider the marginal model.

Marginal model

For this same dataset we could consider a so-called marginal model of yij,

yij=β+eij,
where basically we've pushed the random subject effect ui from before into the error term eij so that we have eij=ui+eij. In the random-effects model we considered the two random terms ui and eij to be i.i.d., but in the marginal model we instead consider eij to follow a block-diagonal covariance matrix C like
C=σ2[R000R000R],R=[1ρρρ1ρρρ1]
In words, this means that under the marginal model we simply consider ρ to be the expected correlation between two es from the same subject (we assume the correlation across subjects is 0). When ρ is positive, two observations drawn from the same subject tend to be more similar (closer together), on average, than two observations drawn randomly from the dataset while ignoring the clustering due to subjects. When ρ is negative, two observations drawn from the same subject tend to be less similar (further apart), on average, than two observations drawn completely at random. (More information about this interpretation in the question/answers here.)

So now when we look at the equation for the variance of the sample mean under the marginal model, we have

var(1nmijyij)=var(1nmijβ+eij)=1n2m2var(ijeij)=1n2m2(n(mσ2+(m2m)ρσ2))=σ2(1+(m1)ρ)nm=(ρn+1ρnm)σ2,
which is the same variance expression we derived above for the random-effects model, just with σe2+σu2=σ2, which is consistent with our note above that eij=ui+eij. The advantage of this (statistically equivalent) perspective is that here we can think about a negative intra-class correlation without needing to invoke any weird concepts like a negative subject variance. Negative intra-class correlations just fit naturally in this framework.

(BTW, just a quick aside to point out that the second-to-last line of the derivation above implies that we must have ρ1/(m1), or else the whole equation is negative, but variances can't be negative! So there is a lower bound on the intra-class correlation that depends on how many measurements we have per cluster. For m=2 (i.e., we measure each subject twice), the intra-class correlation can go all the way down to ρ=1; for m=3 it can only go down to ρ=1/2; and so on. Fun fact!)

So finally, once again considering the total number of observations nm to be a constant, we see that the second-to-last line of the derivation above just looks like

(1+(m1)ρ)×positive constant.
So when ρ>0, having m as small as possible (so that we take fewer measurements of more subjects--in the limit, 1 measurement of each subject) makes the variance of the estimate as small as possible. But when ρ<0, we actually want m to be as large as possible (so that, in the limit, we take all nm measurements from a single subject) in order to make the variance as small as possible. And when ρ=0, the variance of the estimate is just a constant, so our allocation of m and n doesn't matter.

3
+1. Great answer. I have to admit that the second part, about ρ<0, is quite unintuitive: even with a huge (or infinite) total number nm of observations the best we can do is to allocate all observations to one single subject, meaning that the standard error of the mean will be σu and it's not possible in principle to reduce it any further. This is just so weird! True β remains unknowable, whatever resources one puts into measuring it. Is this interpretation correct?
Amöbe sagt Reinstate Monica

3
Ah, no. The above is not correct because as m increases to infinity, ρ cannot stay negative and has to approach zero (corresponding to zero subject variance). Hmm. This negative correlation is a funny thing: it's not really a parameter of the generative model because it's constrained by the sample size (whereas one would normally expect a generative model to be able to generate any number of observations, whatever the parameters are). I am not quite sure what is the proper way to think about it.
Amöbe sagt Reinstate Monica

1
@ DeltaIV Was ist in diesem Fall "die Kovarianzmatrix der zufälligen Effekte"? In dem oben von Jake geschriebenen gemischten Modell gibt es nur einen Zufallseffekt, und so gibt es eigentlich keine "Kovarianzmatrix", sondern nur eine Zahl:σu2. WasΣ Beziehen Sie sich auf?
Amöbe sagt Reinstate Monica

2
@DeltaIV Nun, das allgemeine Prinzip ist en.wikipedia.org/wiki/Inverse-variance_weighting , und die Varianz des Stichprobenmittelwerts jedes Subjekts ist gegeben durchσu2+σe2/mich(Deshalb schrieb Jake oben, dass die Gewichte von der Schätzung der Varianz zwischen den Subjekten abhängen müssen). Die Schätzung der subjektinternen Varianz ergibt sich aus der Varianz der gepoolten subjektinternen Abweichungen, die Schätzung der subjektinternen Varianz ist die Varianz der Mittelwerte der Subjekte und unter Verwendung all dessen, was man zur Berechnung der Gewichte verwenden kann. (Ich bin mir aber nicht sicher, ob dies 100% dem entspricht, was ich tun werde.)
Amöbe sagt Reinstate Monica

1
Jake, yes, it's exactly this hard-coding of m that was bothering me. If this is "sample size" then it cannot be a parameter of the underlying system. My current thinking is that negative ρ should actually indicate that there is another within-subject factor that is ignored/unknown to us. E.g. it could be pre & post of some intervention and the difference between them is so large that the measurements are negatively correlated. But this would mean that m is not really a sample size, but the number of levels of this unknown factor, and that can certainly be hard coded...
Amöbe sagt Reinstate Monica
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.