Ich verwende die VAR-Bibliothek für Python-Statistikmodelle, um finanzielle Zeitreihendaten zu modellieren, und einige Ergebnisse haben mich verwirrt. Ich weiß, dass VAR-Modelle davon ausgehen, dass die Zeitreihendaten stationär sind. Ich habe versehentlich eine instationäre Reihe von Log-Preisen für zwei verschiedene Wertpapiere angepasst, und überraschenderweise waren die angepassten Werte und Prognosen in der Stichprobe mit relativ unbedeutenden stationären Residuen sehr genau. Der Wert für die Prognose in der Stichprobe betrug 99% und die Standardabweichung der prognostizierten Restreihen betrug etwa 10% der Prognosewerte.
Wenn ich jedoch die Log-Preise differenziere und diese Zeitreihen an das VAR-Modell anpasse, liegen die angepassten und prognostizierten Werte weit hinter der Marke und bewegen sich in einem engen Bereich um den Mittelwert. Infolgedessen können die Residuen die Protokollrenditen besser prognostizieren als die angepassten Werte, wobei die Standardabweichung der prognostizierten Residuen 15-mal größer ist als die der angepassten Datenreihe und ein Wert von 0,007 für die Prognoseserie.
Interpretiere ich angepasste oder Residuen im VAR-Modell falsch oder mache ich einen anderen Fehler? Warum würde eine instationäre Zeitreihe zu genaueren Vorhersagen führen als eine stationäre, die auf denselben zugrunde liegenden Daten basiert? Ich habe ein gutes Stück mit ARMA-Modellen aus derselben Python-Bibliothek gearbeitet und nichts Vergleichbares zu dieser Modellierung einzelner Seriendaten gesehen.
quelle
Antworten:
Zwei Fakten:
Wenn Sie einen zufälligen Spaziergang auf einen anderen zufälligen Spaziergang zurückführen und fälschlicherweise Stationarität annehmen, gibt Ihre Software im Allgemeinen statistisch signifikante Ergebnisse zurück, selbst wenn es sich um unabhängige Prozesse handelt! Siehe zum Beispiel diese Vorlesungsunterlagen. (Google für unechten zufälligen Spaziergang und zahlreiche Links wird angezeigt.) Was läuft falsch? Die üblichen OLS-Schätzungen und Standardfehler basieren auf Annahmen, die bei zufälligen Spaziergängen nicht zutreffen.
Wenn Sie so tun, als ob die üblichen OLS-Annahmen zutreffen, und wenn Sie zwei unabhängige Zufallsbewegungen aufeinander zurückführen, führt dies im Allgemeinen zu Regressionen mit riesigen , hoch signifikanten Koeffizienten, und alles ist völlig falsch! Wenn es einen zufälligen Spaziergang gibt und Sie eine Regression in Ebenen ausführen, werden die üblichen Annahmen für OLS verletzt, Ihre Schätzung konvergiert nicht als , der übliche zentrale Grenzwertsatz gilt nicht und die t-Statistiken und p-Werte Ihre Regressionsspucke sind alle falsch . t → ∞R2 t→∞
Wenn zwei Variablen kointegriert , können Sie eine auf der anderen regredieren und Ihre Schätzer konvergiert schneller als üblich Regression, ein Ergebnis als super-Konsistenz bekannt. Z.B. Kasse John Cochranes Zeitreihenbuch online und suche nach "superkonsistent".
quelle