Wenn eine Zeitreihe stationär zweiter Ordnung ist, bedeutet dies, dass sie streng stationär ist?


11

Ein Prozess ist streng stationär, wenn die gemeinsame Verteilung von der gemeinsamen Verteilung von X_ {t_1 + k}, X_ {t_2 + k} entspricht , ..., X_ {t_m + k} für alle m , für alle k und für alle t_1, t_2, ..., t_m .X t 1 , X t 2 , . . . , X t m X t 1 + k , X t 2 + k , . . . , X t m + k m k t 1 , t 2 , . .XtXt1,Xt2,...,XtmXt1+k,Xt2+k,...,Xtm+kmkt1,t2,...,tm

Ein Prozess ist stationär zweiter Ordnung, wenn sein Mittelwert konstant ist und seine Autokovarianzfunktion nur von der Verzögerung abhängt.

Bedeutet stationär zweiter Ordnung daher strikt stationär?

Auch unter stationär zweiter Ordnung heißt es, dass keine Annahmen über höhere Momente als die erster und zweiter Ordnung gemacht werden. Der erste Moment entspricht dem Mittelwert, entspricht der zweite Moment der Autokovarianz?


Siehe auch diesen Beitrag für eine verwandte Diskussion.
Javlacalle

1
Was Sie als stationär zweiter Ordnung (oder als Kursaufruf) bezeichnen, wird häufig als schwach stationär oder Wide-Sense-stationär (WSS) oder stationär im weiten Sinne bezeichnet. WSS-Prozesse sind nicht unbedingt streng stationär, da der Mittelwert und die Autokovarianz im Allgemeinen nicht ausreichen, um die Verteilung zu bestimmen . Natürlich kann ein WSS Gaussian oder normalen Prozess (dh alle sind normale Zufallsvariablen) ist streng stationär , weil der Mittelwert und die Kovarianz - Matrix , die die gemeinsame Verteilung zu bestimmen. Xt
Dilip Sarwate

Siehe auch Beispiel eines Prozesses, der stationär 2. Ordnung, aber nicht streng stationär ist . Die beiden sind sehr nahe daran, Duplikate zu sein. Diese Frage fragt auch, ob sich der zweite Moment auf Autokovarianz bezieht, aber das ist wirklich eine Unterfrage und wird jedenfalls im Thread behandelt. Was ist ein stationärer Prozess zweiter Ordnung?
Silverfish

Antworten:


8

Die Stationarität zweiter Ordnung ist schwächer als die strikte Stationarität. Stationarität zweiter Ordnung erfordert, dass Momente erster und zweiter Ordnung (Mittelwert, Varianz und Kovarianz) über die Zeit konstant sind und daher nicht von der Zeit abhängen, zu der der Prozess beobachtet wird. Insbesondere hängt die Kovarianz, wie Sie sagen, nur von der Verzögerungsreihenfolge , nicht jedoch von der Zeit, zu der sie gemessen wird. für alle .C o v ( x t , x t - k ) = C o v ( x tktCov(xt,xtk)=Cov(xt+h,xt+hk)t

In einem strengen Stationaritätsprozess bleiben die Momente aller Ordnungen über die Zeit konstant, dh wie Sie sagen, ist die gemeinsame Verteilung von dieselbe wie die gemeinsame Verteilung von für alle und . X t 1 + k + X t 2 + k + . . . + X t m + k t 1 , t 2 ,Xt1,Xt2,...,XtmXt1+k+Xt2+k+...+Xtm+kkt1,t2,...,tmk

Daher beinhaltet strenge Stationarität Stationarität zweiter Ordnung, aber das Gegenteil ist nicht der Fall.

Bearbeiten (bearbeitet als Antwort auf den Kommentar von @ whuber)

Die vorige Aussage ist das allgemeine Verständnis von schwacher und starker Stationarität. Obwohl die Vorstellung, dass Stationarität im schwachen Sinne keine Stationarität im stärkeren Sinne impliziert, mit der Intuition übereinstimmt, ist es möglicherweise nicht so einfach zu beweisen, wie Whuber im folgenden Kommentar hervorhob. Es kann hilfreich sein, die in diesem Kommentar vorgeschlagene Idee zu veranschaulichen.

Wie können wir einen Prozess definieren, der stationär zweiter Ordnung ist (Mittelwert, Varianz und Kovarianz über die Zeit konstant), aber nicht im engeren Sinne stationär ist (Momente höherer Ordnung hängen von der Zeit ab)?

Wie von @whuber vorgeschlagen (wenn ich es richtig verstanden habe), können wir Stapel von Beobachtungen verketten, die aus verschiedenen Verteilungen stammen. Wir müssen nur darauf achten, dass diese Verteilungen den gleichen Mittelwert und die gleiche Varianz haben (an dieser Stelle nehmen wir an, dass sie unabhängig voneinander abgetastet werden). Einerseits können wir beispielsweise Beobachtungen aus der Verteilung des Schülers mit Freiheitsgraden generieren . Der Mittelwert ist Null und die Varianz ist . Andererseits können wir die Gaußsche Verteilung mit dem Mittelwert Null und der Varianz .5 5 / (t55 / 35/(52)=5/35/3

Beide Verteilungen haben den gleichen Mittelwert (Null) und die gleiche Varianz ( ). Somit ist die Verkettung von Zufallswerten aus dieser Verteilung mindestens stationär zweiter Ordnung. Die Kurtosis an den Punkten, die von der Gaußschen Verteilung bestimmt werden , beträgt jedoch , während sie zu den Zeitpunkten, an denen die Daten aus der Verteilung des Schülers stammen , . Daher sind die auf diese Weise erzeugten Daten im engeren Sinne nicht stationär, da Momente vierter Ordnung nicht konstant sind.5/33t3+6/(54)=9

Die Kovarianzen sind ebenfalls konstant und gleich Null, da wir unabhängige Beobachtungen berücksichtigt haben. Dies mag trivial erscheinen, so dass wir eine gewisse Abhängigkeit zwischen den Beobachtungen gemäß dem folgenden autoregressiven Modell erzeugen können.

yt=ϕyt1+ϵt,|ϕ|<1,t=1,2,...,120
mit
ϵt{N(0,σ2=5/3)ift[0,20],[41,60],[81,100]t5ift[21,40],[61,80],[101,120].

|ϕ|<1 stellt sicher, dass die Stationarität zweiter Ordnung erfüllt ist.

Wir können einige dieser Reihen in der R-Software simulieren und prüfen, ob der Stichprobenmittelwert, die Varianz, die Kovarianz erster Ordnung und die Kurtosis über Chargen von Beobachtungen konstant bleiben (der folgende Code verwendet und die Stichprobengröße , siehe Abbildung) zeigt eine der simulierten Serien an):20ϕ=0.8n=240

# this function is required below
kurtosis <- function(x)
{
  n <- length(x)
  m1 <- sum(x)/n
  m2 <- sum((x - m1)^2)/n
  m3 <- sum((x - m1)^3)/n
  m4 <- sum((x - m1)^4)/n
  b1 <- (m3/m2^(3/2))^2
  (m4/m2^2)
}
# begin simulation
set.seed(123)
n <- 240
Mmeans <- Mvars <- Mcovs <- Mkurts <- matrix(nrow = 1000, ncol = n/20)
for (i in seq(nrow(Mmeans)))
{
  eps1 <- rnorm(n = n/2, sd = sqrt(5/3))
  eps2 <- rt(n = n/2, df = 5)
  eps <- c(eps1[1:20], eps2[1:20], eps1[21:40], eps2[21:40], eps1[41:60], eps2[41:60], 
    eps1[61:80], eps2[61:80], eps1[81:100], eps2[81:100], eps1[101:120], eps2[101:120])
  y <- arima.sim(n = n, model = list(order = c(1,0,0), ar = 0.8), innov = eps)

  ly <- split(y, gl(n/20, 20))
  Mmeans[i,] <- unlist(lapply(ly, mean))
  Mvars[i,] <- unlist(lapply(ly, var))
  Mcovs[i,] <- unlist(lapply(ly, function(x) 
    acf(x, lag.max = 1, type = "cov", plot = FALSE)$acf[2,,1]))
  Mkurts[i,] <- unlist(lapply(ly, kurtosis))
}

simulierte Serien

Die Ergebnisse entsprechen nicht meinen Erwartungen:

round(colMeans(Mmeans), 4)
#  [1]  0.0549 -0.0102 -0.0077 -0.0624 -0.0355 -0.0120  0.0191  0.0094 -0.0384
# [10]  0.0390 -0.0056 -0.0236
round(colMeans(Mvars), 4)
#  [1] 3.0430 3.0769 3.1963 3.1102 3.1551 3.2853 3.1344 3.2351 3.2053 3.1714
# [11] 3.1115 3.2148
round(colMeans(Mcovs), 4)
#  [1] 1.8417 1.8675 1.9571 1.8940 1.9175 2.0123 1.8905 1.9863 1.9653 1.9313
# [11] 1.8820 1.9491
round(colMeans(Mkurts), 4)
#  [1] 2.4603 2.5800 2.4576 2.5927 2.5048 2.6269 2.5251 2.5340 2.4762 2.5731
# [11] 2.5001 2.6279

Der Mittelwert, die Varianz und die Kovarianz sind über Chargen hinweg relativ konstant, wie dies für einen stationären Prozess zweiter Ordnung erwartet wird. Die Kurtosis bleibt jedoch auch relativ konstant. Wir hätten höhere Werte der Kurtosis bei diesen Chargen erwarten können, die sich auf Ziehungen aus der Verteilung des Schülers beziehen . Vielleicht reichen Beobachtungen nicht aus, um Veränderungen in der Kurtosis zu erfassen. Wenn wir den Datenerzeugungsprozess dieser Serien nicht kennen und uns die fortlaufenden Statistiken ansehen würden, würden wir wahrscheinlich zu dem Schluss kommen, dass die Serie mindestens bis zur vierten Ordnung stationär ist. Entweder habe ich nicht das richtige Beispiel genommen oder einige Funktionen der Serie werden für diese Stichprobengröße maskiert.t20


3
Obwohl Sie richtig liegen, haben Sie die endgültige Schlussfolgerung nicht ausreichend nachgewiesen. (Sie scheinen anzunehmen, dass die höheren Momente eines stationären Prozesses zweiter Ordnung unabhängig von seinen ersten beiden Momenten vorgeschrieben werden können, aber das ist - obwohl teilweise wahr - nicht offensichtlich.) Der stärkste Weg, Ihre Schlussfolgerung zu demonstrieren, wäre einen Prozess zu zeigen, der stationär zweiter Ordnung, aber nicht stationär ist. Obwohl dies mit einer geeigneten Folge unabhängiger Zufallsvariablen einfach zu bewerkstelligen ist, wäre es von Interesse, ein Beispiel mit nicht verschwindenden Korrelationen bei allen Verzögerungen bereitzustellen.
whuber

@whuber Ich habe meine Antwort bearbeitet. Ich dachte, ich hätte Ihren Standpunkt verstanden, aber mein Versuch, Ihrer Idee zu folgen, war nicht ganz zufriedenstellend.
Javlacalle

2
Vielleicht hilft das. Sei unabhängige Bernoulli-Variablen mit den Parametern bzw. , und sei eine Folge von iid-Normalvariablen, . Definiere wobei wenn ist, und ansonsten. Die serielle Korrelation ist hoch, sie ist stationär zweiter Ordnung, aber nicht stationär und nicht ergodisch. Sie können eine Realisierung mit Code wie generieren . Das Ausführen und Zeichnen mehrerer solcher Simulationen ist lehrreich. p 1 / 2 1 - p ( X i ) , i Z Y i = U [ i ] - p [ i ] + X i [ i ] = 0 i [ i ] = 1Ui,i=0,1p1/21p(Xi)iZYi=U[i]p[i]+Xi[i]=0i[i]=1Rn <- 300; p <- 1/4; x <- rnorm(n, (rbinom(2,1,c(p,1-p))-c(p,1-p)), 1/8)
whuber

2
Ich würde keine strenge Stationarty und Kovarianz-Stationarität bestellen (obwohl die Verwendung des Begriffs "schwach" auch für letztere leider auf eine solche Reihenfolge hinweist). Der Grund ist, dass strenge Stationarität keine Kovarianz-Stationarität impliziert: Der Prozess kann streng stationär sein, aber Verteilungsmomente können nicht existieren oder unendlich sein. In diesem Fall ist dieser streng stationäre Prozess nicht kovarianz-stationär.
Alecos Papadopoulos

2
Wir können die Nichtexistenz von Momenten nicht direkt simulieren . Erstellen Sie einen streng stationären Cauchy-Prozess, um das triviale Beispiel zu nehmen. Das Diagramm sieht perfekt "stationär" aus, da sich das Verhalten des Prozesses wiederholt, ein Verhalten, das nur von den Momenten abhängt, in denen sie existieren . Wenn sie nicht vorhanden sind, wird das Verhalten beschrieben und hängt von anderen Merkmalen der Verteilung ab.
Alecos Papadopoulos

1

Da ich keinen Kommentar abgeben kann und die Antwort von @javlacalle eine lohnende Einschränkung habe , bin ich gezwungen, dies als separate Antwort aufzunehmen:

@javlacalle hat das geschrieben

Eine strenge Stationarität beinhaltet eine Stationarität zweiter Ordnung, aber das Gegenteil ist nicht der Fall.

Starke Stationarität bedeutet jedoch keine schwache Stationarität. Der Grund ist, dass starke Stationarität nicht bedeutet, dass der Prozess notwendigerweise einen endlichen zweiten Moment hat. Zum Beispiel ist ein iid-Prozess mit Standard-Cauchy-Verteilung streng stationär, hat aber keinen endlichen zweiten Moment. In der Tat ist ein endliches zweites Moment eine notwendige und ausreichende Bedingung für die schwache Stationarität eines stark stationären Prozesses.

Referenz: Myers, DE, 1989. Sein oder Nichtsein. . . stationär? Das ist hier die Frage. Mathematik. Geol. 21, 347–362.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.