Warum arbeiten meine VAR-Modelle besser mit nichtstationären Daten als mit stationären Daten?

9

Ich verwende die VAR-Bibliothek für Python-Statistikmodelle, um finanzielle Zeitreihendaten zu modellieren, und einige Ergebnisse haben mich verwirrt. Ich weiß, dass VAR-Modelle davon ausgehen, dass die Zeitreihendaten stationär sind. Ich habe versehentlich eine instationäre Reihe von Log-Preisen für zwei verschiedene Wertpapiere angepasst, und überraschenderweise waren die angepassten Werte und Prognosen in der Stichprobe mit relativ unbedeutenden stationären Residuen sehr genau. Der Wert für die Prognose in der Stichprobe betrug 99% und die Standardabweichung der prognostizierten Restreihen betrug etwa 10% der Prognosewerte.R2

Wenn ich jedoch die Log-Preise differenziere und diese Zeitreihen an das VAR-Modell anpasse, liegen die angepassten und prognostizierten Werte weit hinter der Marke und bewegen sich in einem engen Bereich um den Mittelwert. Infolgedessen können die Residuen die Protokollrenditen besser prognostizieren als die angepassten Werte, wobei die Standardabweichung der prognostizierten Residuen 15-mal größer ist als die der angepassten Datenreihe und ein Wert von 0,007 für die Prognoseserie.R2

Interpretiere ich angepasste oder Residuen im VAR-Modell falsch oder mache ich einen anderen Fehler? Warum würde eine instationäre Zeitreihe zu genaueren Vorhersagen führen als eine stationäre, die auf denselben zugrunde liegenden Daten basiert? Ich habe ein gutes Stück mit ARMA-Modellen aus derselben Python-Bibliothek gearbeitet und nichts Vergleichbares zu dieser Modellierung einzelner Seriendaten gesehen.

jpeginternet
quelle
5
Zwei Fakten: (1) Wenn Sie einen zufälligen Spaziergang auf einen anderen zufälligen Spaziergang zurückführen und fälschlicherweise Stationarität annehmen, erhalten Sie fast immer statistisch hoch signifikante Ergebnisse, selbst wenn es sich um unabhängige Prozesse handelt! . (2) Wenn zwei Variablen kointegriert , können Sie eine auf der anderen regredieren und Ihre Schätzer konvergiert schneller als üblich Regression, ein Ergebnis bekannt als Super-Konsistenz.
Matthew Gunn
Vielen Dank. Fakt Nr. 1 erklärt sicherlich die Ergebnisse für die instationäre Serie. Die Ergebnisse der stationären Serie wirken sicherlich so, als ob sie das zeigen, was Sie als Superkonsistenz bezeichnet haben, außer dass die beiden Serien, soweit ich das beurteilen kann, nicht zusammengeführt werden. Ich habe eine lineare Regression für die beiden Preisreihen durchgeführt, und die Residuen waren alles andere als stationär. Ich müsste also davon ausgehen, dass das VAR-Modell so schlecht prognostiziert, weil die beiden Rückgabeserien nicht stark kreuzautomatisch korrelieren. Der Granger-Test bestätigt dies ebenfalls.
jpeginternet
@MatthewGunn, dein Kommentar könnte besser als Antwort passen.
Richard Hardy

Antworten:

9

Zwei Fakten:

  1. Wenn Sie einen zufälligen Spaziergang auf einen anderen zufälligen Spaziergang zurückführen und fälschlicherweise Stationarität annehmen, gibt Ihre Software im Allgemeinen statistisch signifikante Ergebnisse zurück, selbst wenn es sich um unabhängige Prozesse handelt! Siehe zum Beispiel diese Vorlesungsunterlagen. (Google für unechten zufälligen Spaziergang und zahlreiche Links wird angezeigt.) Was läuft falsch? Die üblichen OLS-Schätzungen und Standardfehler basieren auf Annahmen, die bei zufälligen Spaziergängen nicht zutreffen.

    Wenn Sie so tun, als ob die üblichen OLS-Annahmen zutreffen, und wenn Sie zwei unabhängige Zufallsbewegungen aufeinander zurückführen, führt dies im Allgemeinen zu Regressionen mit riesigen , hoch signifikanten Koeffizienten, und alles ist völlig falsch! Wenn es einen zufälligen Spaziergang gibt und Sie eine Regression in Ebenen ausführen, werden die üblichen Annahmen für OLS verletzt, Ihre Schätzung konvergiert nicht als , der übliche zentrale Grenzwertsatz gilt nicht und die t-Statistiken und p-Werte Ihre Regressionsspucke sind alle falsch . t R2t

  2. Wenn zwei Variablen kointegriert , können Sie eine auf der anderen regredieren und Ihre Schätzer konvergiert schneller als üblich Regression, ein Ergebnis als super-Konsistenz bekannt. Z.B. Kasse John Cochranes Zeitreihenbuch online und suche nach "superkonsistent".

Matthew Gunn
quelle