Ich bin mir ziemlich sicher, dass mir hier etwas Offensichtliches fehlt, aber ich bin ziemlich verwirrt mit verschiedenen Begriffen im Bereich der Zeitreihen. Wenn ich es richtig verstehe, sind seriell autokorrelierte Fehler ein Problem in Regressionsmodellen (siehe zum Beispiel hier ). Meine Frage ist nun, was genau einen autokorrelierten Fehler definiert. Ich kenne die Definition der Autokorrelation und kann die Formeln anwenden, aber dies ist eher ein Problem des Verständnisses mit Zeitreihen in Regressionen.
Nehmen wir zum Beispiel die Zeitreihe der Tagestemperaturen: Wenn es heute ein heißer Tag ist (Sommerzeit!), Ist es wahrscheinlich auch morgen heiß und umgekehrt. Ich glaube, ich habe ein Problem damit, dieses Phänomen als "seriell autokorrelierte Fehler" zu bezeichnen, weil es mich nicht als Fehler, sondern als erwartet empfindet.
Nehmen wir formeller einen Regressionsaufbau mit einer abhängigen Variablen und einer unabhängigen Variablen x t und dem Modell an.
Ist es möglich, dass autokorreliert ist, während ϵ t iid ist? Wenn ja, was bedeutet das für all diese Methoden, die Standardfehler für die Autokorrelation anpassen? Müssen Sie das noch tun oder gelten sie nur für autokorrelierte Fehler? Oder würden Sie die Autokorrelation immer in einer solchen Einstellung im Fehlerterm modellieren, sodass es im Grunde keinen Unterschied macht, ob x t autokorreliert ist oder e t ?
Dies ist meine erste Frage hier. Ich hoffe, es ist nicht zu verwirrend und ich hoffe, ich habe nichts Offensichtliches verpasst ... Ich habe auch versucht, es zu googeln und einige interessante Links gefunden (zum Beispiel hier auf SA ), aber nichts hat mir wirklich geholfen.
quelle
Von allen Annahmen in der linearen Regression (Homoskedastizität, Unabhängigkeit der Residuen, Linearität der Beziehung IVs -> DV, Normalität der Residuen) sind Linearität und Unabhängigkeit der Residuen diejenigen, die die Ergebnisse bei Verletzung schwerwiegender beeinflussen.
quelle