Um genaue Definitionen zu erhalten, sei reelle Zufallsvariablen.X.1, … , X.n
Stationarität wird normalerweise nur definiert, wenn wir den Index der Variablen als Zeit betrachten . In diesem Fall ist die Folge von Zufallsvariablen stationär zu hat die gleiche Verteilung wie . Dies impliziert insbesondere, dass für alle die gleiche Randverteilung und damit den gleichen Randmittelwert und die gleiche Varianz haben (vorausgesetzt, sie haben ein endliches zweites Moment).X.1, … , X.n - 1X.2, … , X.nX.ichi = 1 , … , n
Die Bedeutung von Heteroskedastizität kann vom Kontext abhängen. Wenn sich die Randvarianzen des mit ändern (auch wenn der Mittelwert konstant ist), werden die Zufallsvariablen als heteroskedastisch bezeichnet, da sie nicht homoskedastisch sind.X.ichich
In der Regressionsanalyse betrachten wir normalerweise die Varianz der Antwort bedingt durch die Regressoren und definieren Heteroskedastizität als nicht konstante bedingte Varianz.
X.kX.k - 1, … , X.1
Heteroskedastizität (insbesondere bedingte Heteroskedastizität) bedeutet im Allgemeinen keine Nichtstationarität.
1n∑i = 1nf( X.ich)
E.f( X.1)n → ∞
Die Bedeutung der Heteroskedastizität (oder Homoskedastizität) hängt aus statistischer Sicht mit der Bewertung der statistischen Unsicherheit zusammen, z. B. der Berechnung von Konfidenzintervallen. Wenn Berechnungen unter der Annahme einer Homoskedastizität durchgeführt werden, während die Daten tatsächlich eine Heteroskedastizität zeigen, können die resultierenden Konfidenzintervalle irreführend sein.