Ich arbeite intensiv mit finanziellen Zeitreihenmodellen, hauptsächlich AR (I) MA und Kalman.
Ein Problem, mit dem ich immer wieder konfrontiert bin, ist die Abtastfrequenz. Anfangs dachte ich, wenn ich die Möglichkeit hätte, häufiger von einem zugrunde liegenden Prozess abzutasten, sollte ich so häufig wie möglich abtasten, damit ich eine viel größere Anzahl von Stichproben habe, daher variieren meine Modellparameter weniger.
In Wirklichkeit erwies sich diese Idee nicht als gut. Was passiert ist, ist, dass, wenn der zugrunde liegende Prozess nicht genügend Variationen aufweist, das Erhöhen der Abtastfrequenz tatsächlich viele sich wiederholende (gleiche) Werte bedeutet. Und das Aufbauen eines Modells auf solchen Werten führt zu Modellen mit sehr sehr kleinen Modellkoeffizienten, die nicht gut in die Zukunft vorhersagen (natürlich ist die Definition von "gut" subjektiv und eine erhöhte Häufigkeit erfordert, um viel mehr Stichprobenschritte in die Zukunft vorherzusagen den gleichen Zeitschritt in einer niedrigeren Frequenzeinstellung erreichen). Das Modell lernt, was es am meisten trifft - eine flache Linie.
Ich wollte einen adaptiven Stichprobenansatz machen, dh häufiger Stichproben, wenn es Abweichungen gibt, und weniger häufig, wenn es keine gibt. Dies ist jedoch nicht einfach. Zunächst ist nicht klar, welche Art von Verzerrung ich dadurch einführe (und hängt davon ab, wie ich das Sample / Skip auslöse). Zweitens sind Zeitreihenmodelle wie ARIMA für ungleichmäßige Stichprobenschritte nicht gut geeignet.
Gibt es eine gute Möglichkeit, mit diesem Problem umzugehen? Ich frage mich auch, wie man einen nahtlosen Übergang zwischen kontinuierlichen Zeitmodellen und diskreten Zeitmodellen erreicht, wenn Modelle so dramatisch von der Abtastfrequenz beeinflusst werden (insbesondere wenn Zeitschritte immer kleiner werden). Hinweise auf externe Ressourcen sind ebenfalls willkommen.
Vielen Dank
quelle
Antworten:
ARIMAs sind möglicherweise nicht gut für Ihren Zweck geeignet, aber Zustandsraummodelle sind: Sie können so oft abtasten, wie Sie möchten (und im Prinzip, je mehr desto besser) und in festgelegten Intervallen eine zeitliche Aktualisierung durchführen, je nach Dynamik Ihres angenommenen Prozesses kann verlangen. Eine der Schönheiten von Zustandsraummodellen besteht darin, dass der Beobachtungsprozess vom Modellprozess getrennt ist und für jedes separate Zeitintervalle verwendet werden können.
quelle
Ich möchte Sie auf den Artikel verweisen
Ghysels, E, P. Santa-Clara und R. Valkanov (2006): "Vorhersage der Volatilität: Das Beste aus den bei verschiedenen Frequenzen abgetasteten Rückgabedaten herausholen", Journal of Econometrics, vol. 131, S. 59-95.
Die Autoren verwenden selbst eine Technik namens MIDAS (Mixed Data Sampling), um Schätzungen der Volatilität anhand von Daten zu vergleichen, die bei verschiedenen Frequenzen abgetastet wurden. Zugegeben, das ist nicht genau das, wonach Sie gesucht haben, aber die Autoren behaupten, dass ihre Technik geeignet ist, die Ergebnisse auf sinnvolle Weise zu vergleichen. Vielleicht gibt Ihnen dies mindestens eine zweite Möglichkeit, Ihre Daten zu analysieren. Insbesondere im Bereich der Makroökonomie scheint dieser Ansatz auf Interesse gestoßen zu sein.
quelle
Dies könnte in der Stichprobe funktionieren, wäre jedoch für Vorhersagen außerhalb der Stichprobe schwierig zu verwenden, es sei denn, Sie finden heraus, wie die Variabilität selbst vorhergesagt werden kann (und das muss nicht unmöglich sein). Wenn Sie auf Regime mit geringer Variation (oder überhaupt keiner Variation) stoßen, gefolgt von Regimen mit hoher Variation, benötigen Sie natürlich separate Modelle für beide; Ein Modell für den gesamten Prozess zu haben und in ungleichmäßigen Intervallen / Frequenzen abzutasten, erscheint intuitiv suboptimal. Sie haben Regime-Switching-Modelle erwähnt (bei der Beantwortung meines Kommentars), und das ist ein gutes Beispiel dafür, was Sie hier möglicherweise benötigen.
Dies ist nicht ganz richtig. In einer Zeitreiheneinstellung ist oft eher die Zeitspanne als die Anzahl der Beobachtungen von Bedeutung. Beispielsweise sind 120 monatliche Beobachtungen (über 10 Jahre) eine aussagekräftigere Stichprobe als 209 wöchentliche Beobachtungen (über 4 Jahre), wenn auf das Vorhandensein einer Einheitswurzel getestet wird. Siehe diesen Blog-Beitrag von Dave Giles und die letzte Referenz darin. Oder betrachten Sie einen Grenzfall, in dem Sie so häufig Proben entnehmen, dass Sie im Wesentlichen dasselbe mehrmals messen. Dies würde Ihre Stichprobengröße erhöhen, aber keine neuen Informationen einbringen, was zu einem falschen Eindruck von Schätzgenauigkeit führen würde. Vielleicht sollten Sie nicht zu viel Zeit damit verbringen, die Abtastfrequenz zu erhöhen und entsprechende Modelle zu erstellen?
quelle