Ich möchte ein Maß für die Volatilität oder das Rauschen für stationäre Zeitreihendaten berechnen. Dies kann ein Maß für eine einzelne Zeitreihe oder ein relatives Maß sein, das mehrere Zeitreihen miteinander vergleicht. Nehmen wir an, dass bereits ein Dickey-Fuller-Test durchgeführt wurde und alle Zeitreihen keine Einheitswurzel haben.
Was sind einige Beispiele für solche Metriken zur Messung von Rauschen / Volatilität? Ich habe den einfachen "Variabilitätskoeffizienten" betrachtet, der SD / Mittelwert ist. Ich frage mich jedoch, ob es andere Möglichkeiten gibt, dies zu messen. Wenn es hilft, benutze ich R.
Ich weiß, dass dies eine vage Bitte ist, und ich entschuldige mich. Ich würde mich über Vorschläge oder Quellen sehr freuen, um mehr über das Thema zu erfahren.
quelle
Wie bereits erwähnt, umfassen typische statistische Ansätze, die auf L2-Normen basieren, den Standardentwickler sowie den Variationskoeffizienten (der für nichtnegative Metriken ein skaleninvariantes Maß ergibt) sowie den Dispersionsindex (Verhältnis der Varianz zum Mittelwert). Wenn es sich bei den Daten um finanzielle Daten handelt, können auch Risikomaßnahmen nach oben und / oder nach unten berechnet werden , auch bekannt als Halbabweichung über oder unter dem Ziel , wie in diesen Wiki-Artikeln ( https: //en.wikipedia) beschrieben .org / wiki / Downside_risk oder https://en.wikipedia.org/wiki/Upside_risk ).
L1-normbasierte Messungen sind möglich, beispielsweise die MAD oder mittlere absolute Abweichung und die MADM, die mittlere absolute Abweichung vom Median. Andere nichtparametrische Schätzungen umfassen den Interquartilbereich, den Interdecile-Bereich sowie Metriken, die von Rousseeuw und Croux in ihrem Artikel Alternativen zur mittleren absoluten Abweichung (ungated copy here ... http://web.ipac.caltech.edu/) erörtert wurden. staff / fmasci / home / astro_refs / BetterThanMAD.pdf ).
Informationstheoretische Ansätze umfassen Entropiemessungen ( https://en.wikipedia.org/wiki/Entropy_(information_theory) ) wie Theils U oder die vielen Varianten von Indizes der Informationsvielfalt (z. B. https: //en.wikipedia) .org / wiki / Generalized_entropy_index ).
Hyndmans Behauptung ist, dass seine MASE- Metrik für Zeitreihendaten optimal ist. MASE ist eine normalisierte Verlustfunktion. Nach dem Erstellen von Zug- und Testdaten werden die Testdatenreste normalisiert oder durch den durchschnittlichen Fehler in den Trainingsdaten geteilt. Wenn MASE <1 ist, ist das vorgeschlagene Modell im Durchschnitt eine Verbesserung gegenüber einer um einen Schritt vorausgehenden zufälligen Gehprognose.
Siehe seine Arbeit, Hyndman und Koehler, Ein weiterer Blick auf Messungen der Prognosegenauigkeit, International Journal of Forecasting, 22 (4): 679-688, 2006, https://robjhyndman.com/papers/mase.pdf , p. 3
quelle