In der praktischen Anwendung habe ich oft die folgende Praxis gesehen. Man beobachtet ein Paar über die Zeit. Unter der Annahme, dass sie linear zusammenhängen, regressieren wir uns unter Verwendung geometrischer Gewichte anstelle einheitlicher Gewichte gegeneinander, dh der OLS minimiert für einige . Das ist sehr intuitiv: Wir gewichten weit weniger Beobachtungen in der Vergangenheit. Im Vergleich zu einem "Boxcar" -Gewichtungsschema hat es auch den Vorteil, Schätzungen zu erstellen, die sich im Laufe der Zeit reibungslos ändern, da Beobachtungen nicht abrupt aus dem Beobachtungsfenster fallen. Ich frage mich jedoch, ob es eine Wahrscheinlichkeit gibt
xtytModell, das der Beziehung zwischen und zugrunde liegt, die diese Wahl rechtfertigt.
regression
least-squares
gappy
quelle
quelle
Antworten:
"Linear verwandt" bedeutet normalerweise
für Konstante ,b ε t t = 0 , 1 , … , T a bein b und uiv Zufallsfehler , . Ein Grund, warum man eine exponentiell gewichtete OLS-Schätzung vornehmen würde, ist der Verdacht, dass sich und selbst (langsam) mit der Zeit könnten. Daher denken wir wirklich, dass das richtige Modell istεt t = 0 , 1 , … , T. ein b
für unbekannte Funktionen β ( t ) a = α T b = β T.α(t) und die sich im Laufe der Zeit langsam (wenn überhaupt) ändern, und wir sind daran interessiert, ihre aktuellen Werte zu schätzen, und . Nehmen wir an, diese Funktionen sind glatt, sodass wir den Satz von Taylor anwenden können. Dies behauptet dasβ(t) a=αT b=βT
für einige und ähnlich für . Wir denken an undβ ( t ) a b α T β Ttα,t,0≤tα,t<T β(t) a b als die neuesten Werte bzw. . Verwenden Sie dies, um die Residuen erneut auszudrücken:αT βT
Jetzt muss viel von Hand gewinkt werden. Wir werden die gesamte rechte Seite als zufällig betrachten. Seine Varianz ist die von plus mal der Varianz von plusx 2 t ( t - T ) 2 α ' ( t α , t ) ( t - T ) 2 β ' ( t β , t ) ( t - T ) 2εt x2t(t−T)2 α′(tα,t) (t−T)2 fache Varianz von . Diese beiden Varianzen sind völlig unbekannt, aber ( Abrakadabra ) stellen wir uns vor, dass sie aus einem (stochastischen) Prozess resultieren, bei dem möglicherweise systematische (nicht zufällige, aber immer noch unbekannte) "Fehler" oder "Variationen" von einem Zeitpunkt zum anderen akkumuliert werden das andere. Dies würde ein Exponential vorschlagenβ′(tβ,t) Änderung dieser Abweichungen im Laufe der Zeit. Vereinfachen Sie nun einfach den expliziten (aber im Wesentlichen nutzlosen) Ausdruck für die rechte Seite und absorbieren Sie die quadratischen Terme in das Exponential (da wir sowieso so wild mit den Händen winken), um zu erhalten(t−T)2
mit der Varianz von gleich für eine Konstante . Ignorieren möglicher zeitlicher Korrelationen zwischen den exp ( κ ( t - T ) ) κ δ tδt exp(κ(t−T)) κ δt und die Annahme, dass sie Normalverteilungen haben, ergibt eine logarithmische Wahrscheinlichkeit für die Daten proportional zu
(plus eine irrelevante Konstante, die nur von abhängt ) mit . Das exponentiell gewichtete OLS-Verfahren maximiert daher die Wahrscheinlichkeit, vorausgesetzt, wir kennen den Wert vonk k=expκ k (ähnlich einem Profilwahrscheinlichkeitsverfahren).
Obwohl diese gesamte Ableitung eindeutig phantasievoll ist, zeigt sie, wie und in welchem Ausmaß die exponentielle Gewichtung versucht, mit möglichen Änderungen der linearen Parameter im Laufe der Zeit umzugehen. Es bezieht den Parameter auf die zeitliche Änderungsrate dieser Parameter.k
quelle
Ich denke, dass du tatsächlich als dein Gewicht meinst oder dass . Wenn und wir als Gewicht nehmen, dann ist . Dies gewichtet also die vorliegende Beobachtung am wenigsten. Wenn wir zum Beispiel dann ist und so weiter.kt k>1 0<k<1 k−t k−∞=∞ k=0.5 k0=1,k−1=2,k−2=4,…,k−20≈106
Dies ist nur eine Aussage darüber, wie sich die Varianz mit jeder Beobachtung ändert (sie wird größer, wenn Sie sich ab dem Zeitpunkt weiter rückwärts bewegen ):T
Bezeichnet und Wir haben eine gemeinsame Log-Wahrscheinlichkeit von:Y≡{yT,yT−1,…,y1} X≡{xT,xT−1,…,x1}
Um also die Maximum-Likelihood-Schätzungen von undba b , haben Sie die folgende Zielfunktion:
Welches ist das, was du suchst?
quelle