Einführung
Mein Interesse an dem Thema ist jetzt ungefähr 7 Jahre und führte zu einer Doktorarbeit. Zeitreihen: Aggregation, Disaggregation und langes Gedächtnis , in denen eine spezielle Frage des Querschnittsproblems der Disaggregation für das AR (1) -Schema behandelt wurde.
Daten
Arbeiten Sie mit verschiedenen Ansätzen zur Aggregation. Die erste Frage, die Sie klären müssen, ist, mit welcher Art von Daten Sie sich befassen (meine Vermutung ist räumlich, die aufregendste). In der Praxis können Sie zeitliche Aggregation (siehe Silvestrini, A. und Veridas, D. (2008) ), Querschnitt (ich mochte den Artikel von Granger, CWJ (1990) ) oder sowohl Raum als auch Zeit in Betracht ziehen (räumliche Aggregation ist gut überblickt) in Giacomini, R. und Granger, CWJ (2004) ).
Antworten (langwierig)
Als Antwort auf Ihre Fragen stelle ich zunächst eine grobe Intuition vor. Da die Probleme, denen ich in der Praxis begegne, oft auf ungenauen Daten beruhen (Andys Annahme)
Sie können eine Zeitreihe von Beobachtungen mit beliebiger Genauigkeit in der Zeit messen
scheint zu stark für Makroökonometrie, aber gut für Finanz- und Mikroökonometrie oder andere experimentelle Bereiche, wenn Sie die Genauigkeit recht gut kontrollieren. Ich muss bedenken, dass meine monatlichen Zeitreihen weniger genau sind als bei der Arbeit mit jährliche Daten. Zudem weisen häufigere Zeitreihen zumindest in der Makroökonomie saisonale Muster auf , die zu Fehlentwicklungen führen könnenErgebnisse (saisonale Teile korrelieren nicht mit den Reihen), daher müssen Sie Ihre Daten saisonal anpassen - eine weitere Quelle mit geringerer Genauigkeit für Daten mit höherer Frequenz. Die Arbeit mit Querschnittsdaten hat gezeigt, dass ein hoher Disaggregationsgrad mehr Probleme mit wahrscheinlich vielen Nullen mit sich bringt. Beispielsweise kann ein bestimmter Haushalt im Datenfeld alle 5 bis 10 Jahre ein Auto kaufen, aber die Gesamtnachfrage nach neuen (gebrauchten) Autos ist viel ruhiger (selbst für eine kleine Stadt oder Region).
Die schwächste Punktaggregation führt immer zum InformationsverlustSie können das BIP im Querschnitt der EU-Länder während des gesamten Jahrzehnts (z. B. Zeitraum 2001-2010) erwirtschaften, verlieren jedoch alle dynamischen Merkmale, die in Ihrer Analyse vorhanden sein können, wenn Sie den detaillierten Paneldatensatz berücksichtigen. Eine große Querschnittsaggregation könnte sogar noch interessanter werden: Sie nehmen grob einfache Dinge (kurzes Gedächtnis AR (1)), mitteln sie über die ziemlich große Population und erhalten ein "repräsentatives" langes Gedächtnismittel, das keinem Mikro ähnelt Einheiten (ein Stein mehr für das Konzept des Repräsentanten). Also Aggregation ~ Informationsverlust ~ unterschiedliche Eigenschaften der Objekte und Sie möchten die Kontrolle über die Höhe dieses Verlustes und / oder neuer Eigenschaften übernehmen. Meiner Meinung nach ist es besser, präzise Mikro-Level-Daten mit möglichst hoher Frequenz zu haben, aber ...
Wenn Sie eine Regressionsanalyse technisch erstellen möchten, benötigen Sie mehr Spielraum (Freiheitsgrade), um mehr oder weniger sicher zu sein, dass (zumindest) statistisch gesehen Ihre Ergebnisse kein Trödel sind, obwohl sie immer noch a-theoretisch und Trödel sind Gewichtung zu Frage 1 und 2 (in der Regel vierteljährliche Daten für die Makroanalyse wählen). Bei der Beantwortung der 3. Teilfrage entscheiden Sie in der Praxis, was Ihnen wichtiger ist: genauere Daten oder Freiheitsgrade. Wenn Sie die genannte Annahme berücksichtigen, sind die detaillierteren (oder häufigeren) Daten vorzuziehen.
Wahrscheinlich wird die Antwort später nach einer Diskussion, falls vorhanden, bearbeitet.