Wie wählen Sie eine Analyseeinheit (Aggregationsebene) in einer Zeitreihe aus?


13

Wenn Sie eine Zeitreihe von Beobachtungen mit beliebiger Genauigkeit in der Zeit messen können und Ihr Ziel darin besteht, eine Beziehung zwischen X und Y zu identifizieren, gibt es eine empirische Rechtfertigung für die Wahl einer bestimmten Aggregationsebene gegenüber einer anderen oder sollte die Wahl einfach auf der Grundlage von Theorie und / oder praktischen Einschränkungen getroffen werden?

Ich habe drei Unterfragen zu dieser Hauptfrage:

  1. Reicht eine nicht zufällige Variation von X oder Y innerhalb einer größeren Ebene aus, um eine kleinere Aggregationsebene zu wählen (wobei ein zeitliches Muster der Beobachtungen nicht zufällig ist)?

  2. Reichen Abweichungen in der Beziehung zwischen X und Y auf einer kleineren Aggregationsebene aus, um die kleinere Analyseeinheit zu rechtfertigen? Wenn eine Variation akzeptabel ist, wie entscheidet man, wie viel Variation zu viel ist?

  3. Können Menschen Argumente anführen, die sie aus empirischen oder theoretischen Gründen für eine Analyseeinheit gegenüber einer anderen für zwingend / eindeutig halten?

Mir ist das Problem der veränderbaren Flächeneinheiten in der räumlichen Analyse gut bekannt ( Openshaw 1984 ). Ich behaupte nicht, Experten für das Material zu sein, aber ich denke bisher nur, dass eine kleinere Analyseeinheit immer besser ist, da es weniger wahrscheinlich ist, dass man einen ökologischen Trugschluss begeht ( Robinson 1950 ). Wenn jemand eine direkt relevante Referenz oder Antwort zu geografischen Aggregationseinheiten hat, würde ich diese Antwort auch begrüßen.

Antworten:


9

Einführung

Mein Interesse an dem Thema ist jetzt ungefähr 7 Jahre und führte zu einer Doktorarbeit. Zeitreihen: Aggregation, Disaggregation und langes Gedächtnis , in denen eine spezielle Frage des Querschnittsproblems der Disaggregation für das AR (1) -Schema behandelt wurde.

Daten

Arbeiten Sie mit verschiedenen Ansätzen zur Aggregation. Die erste Frage, die Sie klären müssen, ist, mit welcher Art von Daten Sie sich befassen (meine Vermutung ist räumlich, die aufregendste). In der Praxis können Sie zeitliche Aggregation (siehe Silvestrini, A. und Veridas, D. (2008) ), Querschnitt (ich mochte den Artikel von Granger, CWJ (1990) ) oder sowohl Raum als auch Zeit in Betracht ziehen (räumliche Aggregation ist gut überblickt) in Giacomini, R. und Granger, CWJ (2004) ).

Antworten (langwierig)

Als Antwort auf Ihre Fragen stelle ich zunächst eine grobe Intuition vor. Da die Probleme, denen ich in der Praxis begegne, oft auf ungenauen Daten beruhen (Andys Annahme)

Sie können eine Zeitreihe von Beobachtungen mit beliebiger Genauigkeit in der Zeit messen

scheint zu stark für Makroökonometrie, aber gut für Finanz- und Mikroökonometrie oder andere experimentelle Bereiche, wenn Sie die Genauigkeit recht gut kontrollieren. Ich muss bedenken, dass meine monatlichen Zeitreihen weniger genau sind als bei der Arbeit mit jährliche Daten. Zudem weisen häufigere Zeitreihen zumindest in der Makroökonomie saisonale Muster auf , die zu Fehlentwicklungen führen könnenErgebnisse (saisonale Teile korrelieren nicht mit den Reihen), daher müssen Sie Ihre Daten saisonal anpassen - eine weitere Quelle mit geringerer Genauigkeit für Daten mit höherer Frequenz. Die Arbeit mit Querschnittsdaten hat gezeigt, dass ein hoher Disaggregationsgrad mehr Probleme mit wahrscheinlich vielen Nullen mit sich bringt. Beispielsweise kann ein bestimmter Haushalt im Datenfeld alle 5 bis 10 Jahre ein Auto kaufen, aber die Gesamtnachfrage nach neuen (gebrauchten) Autos ist viel ruhiger (selbst für eine kleine Stadt oder Region).

Die schwächste Punktaggregation führt immer zum InformationsverlustSie können das BIP im Querschnitt der EU-Länder während des gesamten Jahrzehnts (z. B. Zeitraum 2001-2010) erwirtschaften, verlieren jedoch alle dynamischen Merkmale, die in Ihrer Analyse vorhanden sein können, wenn Sie den detaillierten Paneldatensatz berücksichtigen. Eine große Querschnittsaggregation könnte sogar noch interessanter werden: Sie nehmen grob einfache Dinge (kurzes Gedächtnis AR (1)), mitteln sie über die ziemlich große Population und erhalten ein "repräsentatives" langes Gedächtnismittel, das keinem Mikro ähnelt Einheiten (ein Stein mehr für das Konzept des Repräsentanten). Also Aggregation ~ Informationsverlust ~ unterschiedliche Eigenschaften der Objekte und Sie möchten die Kontrolle über die Höhe dieses Verlustes und / oder neuer Eigenschaften übernehmen. Meiner Meinung nach ist es besser, präzise Mikro-Level-Daten mit möglichst hoher Frequenz zu haben, aber ...

Wenn Sie eine Regressionsanalyse technisch erstellen möchten, benötigen Sie mehr Spielraum (Freiheitsgrade), um mehr oder weniger sicher zu sein, dass (zumindest) statistisch gesehen Ihre Ergebnisse kein Trödel sind, obwohl sie immer noch a-theoretisch und Trödel sind Gewichtung zu Frage 1 und 2 (in der Regel vierteljährliche Daten für die Makroanalyse wählen). Bei der Beantwortung der 3. Teilfrage entscheiden Sie in der Praxis, was Ihnen wichtiger ist: genauere Daten oder Freiheitsgrade. Wenn Sie die genannte Annahme berücksichtigen, sind die detaillierteren (oder häufigeren) Daten vorzuziehen.

Wahrscheinlich wird die Antwort später nach einer Diskussion, falls vorhanden, bearbeitet.


Danke für die Antwort. Ich werde mindestens ein paar Tage brauchen, um die von Ihnen vorgestellten Materialien zu verarbeiten. Ich möchte auch sagen, dass Ihre Dissertation unglaublich schön ist und ich freue mich auf den Rest, nachdem ich Ihre Einführung gelesen habe.
Andy W
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.