Wenn Sie beispielsweise die acf()
Funktion in R aufrufen , zeichnet sie standardmäßig ein Korrelogramm und zeichnet ein Konfidenzintervall von 95%. Wenn Sie den Code betrachten und anrufen plot(acf_object, ci.type="white")
, sehen Sie:
qnorm((1 + ci)/2)/sqrt(x$n.used)
als obere Grenze für Typ Weißes Rauschen. Kann jemand die Theorie hinter dieser Methode erklären? Warum erhalten wir den qnorm von 1 + 0,95 und dividieren dann durch 2 und danach durch die Anzahl der Beobachtungen?