Begründung für die Verwendung geometrischer Gewichte in der linearen Regression

8

In der praktischen Anwendung habe ich oft die folgende Praxis gesehen. Man beobachtet ein Paar (xt,yt) über die Zeit. Unter der Annahme, dass sie linear zusammenhängen, regressieren wir uns unter Verwendung geometrischer Gewichte anstelle einheitlicher Gewichte gegeneinander, dh der OLS minimiert für einige . Das ist sehr intuitiv: Wir gewichten weit weniger Beobachtungen in der Vergangenheit. Im Vergleich zu einem "Boxcar" -Gewichtungsschema hat es auch den Vorteil, Schätzungen zu erstellen, die sich im Laufe der Zeit reibungslos ändern, da Beobachtungen nicht abrupt aus dem Beobachtungsfenster fallen. Ich frage mich jedoch, ob es eine Wahrscheinlichkeit gibt

t=0kt(yTtaxTtb)2
xtytk(0,1)Modell, das der Beziehung zwischen und zugrunde liegt, die diese Wahl rechtfertigt. xtyt
gappy
quelle
Erst neulich hat jemand irgendwo auf einer der verwandten StackExchange-Sites dieses Schema als "Kalman-Filter des armen Mannes" kommentiert. Wenn es mir gelingt, den Link zu finden, werde ich ihn hier hinzufügen.
Dirk Eddelbuettel
Vielen Dank. Ich würde gerne sehen, wie dies als Kalman-Filter umformuliert werden kann.
Gappy
1
Ich bezweifle, dass es eine formale Ableitung gibt, daher die Zitate um die Version der adaptiven Parameter des armen Mannes.
Dirk Eddelbuettel

Antworten:

6

"Linear verwandt" bedeutet normalerweise

yt=axt+b+εt

für Konstante ,b ε t t = 0 , 1 , , T a bab und uiv Zufallsfehler , . Ein Grund, warum man eine exponentiell gewichtete OLS-Schätzung vornehmen würde, ist der Verdacht, dass sich und selbst (langsam) mit der Zeit könnten. Daher denken wir wirklich, dass das richtige Modell istεtt=0,1,,Tab

yt=α(t)xt+β(t)+εt

für unbekannte Funktionen β ( t ) a = α T b = β T.α(t) und die sich im Laufe der Zeit langsam (wenn überhaupt) ändern, und wir sind daran interessiert, ihre aktuellen Werte zu schätzen, und . Nehmen wir an, diese Funktionen sind glatt, sodass wir den Satz von Taylor anwenden können. Dies behauptet dasβ(t)a=αTb=βT

α(t)=α(T)+α(tα,t)(tT)

für einige und ähnlich für . Wir denken an undβ ( t ) a b α T β Ttα,t,0tα,t<Tβ(t)ab als die neuesten Werte bzw. . Verwenden Sie dies, um die Residuen erneut auszudrücken:αTβT

yt(axt+b)=α(tα,t)(tT)xt+β(tβ,t)(tT)+εt.

Jetzt muss viel von Hand gewinkt werden. Wir werden die gesamte rechte Seite als zufällig betrachten. Seine Varianz ist die von plus mal der Varianz von plusx 2 t ( t - T ) 2 α ' ( t α , t ) ( t - T ) 2 β ' ( t β , t ) ( t - T ) 2εtxt2(tT)2α(tα,t)(tT)2 fache Varianz von . Diese beiden Varianzen sind völlig unbekannt, aber ( Abrakadabra ) stellen wir uns vor, dass sie aus einem (stochastischen) Prozess resultieren, bei dem möglicherweise systematische (nicht zufällige, aber immer noch unbekannte) "Fehler" oder "Variationen" von einem Zeitpunkt zum anderen akkumuliert werden das andere. Dies würde ein Exponential vorschlagenβ(tβ,t)Änderung dieser Abweichungen im Laufe der Zeit. Vereinfachen Sie nun einfach den expliziten (aber im Wesentlichen nutzlosen) Ausdruck für die rechte Seite und absorbieren Sie die quadratischen Terme in das Exponential (da wir sowieso so wild mit den Händen winken), um zu erhalten(tT)2

yt(axt+b)=δt

mit der Varianz von gleich für eine Konstante . Ignorieren möglicher zeitlicher Korrelationen zwischen den exp ( κ ( t - T ) ) κ δ tδtexp(κ(tT))κδt und die Annahme, dass sie Normalverteilungen haben, ergibt eine logarithmische Wahrscheinlichkeit für die Daten proportional zu

t=0Tkt(yTtaxTtb)2

(plus eine irrelevante Konstante, die nur von abhängt ) mit . Das exponentiell gewichtete OLS-Verfahren maximiert daher die Wahrscheinlichkeit, vorausgesetzt, wir kennen den Wert vonkk=expκk (ähnlich einem Profilwahrscheinlichkeitsverfahren).

Obwohl diese gesamte Ableitung eindeutig phantasievoll ist, zeigt sie, wie und in welchem ​​Ausmaß die exponentielle Gewichtung versucht, mit möglichen Änderungen der linearen Parameter im Laufe der Zeit umzugehen. Es bezieht den Parameter auf die zeitliche Änderungsrate dieser Parameter.k

whuber
quelle
Ich stimme dem handwinkenden Teil zu ... Ich bin in der Lage, Annahmen über die zeitlich variierende Form der Regressionsparameter zu vereinfachen, solange sie klar angegeben sind. Natürlich können Sie gerne auf vorhandene Literatur verweisen.
Gappy
@whuber - Ich würde sagen, dass die exponentiell gewichtete Regression eine sehr grobe Annäherung für das von Ihnen beschriebene Modell ist . Aber es könnte durchaus eine exakte Lösung für ein anderes Modell sein. Für das Modell, das Sie beschreiben, wäre es viel besser, die heteroskedastische Komponente aufgrund der Variation von (oder anzunehmen, dass es keine Variation gibt und Sie es mit zufälligen Abschnitten zu tun haben). Sie lassen es so aussehen, als ob die geometrische Gewichtung immer nicht optimal ist, was nicht der Fall ist. Dies hängt von Ihren vorherigen Informationen ab. α(t)
Wahrscheinlichkeitslogik
@prob Ich stimme zu, aber ich konnte kein Modell finden, das diesen Ansatz genau rechtfertigt. Deshalb musste ich mich damit zufrieden geben, auf einige der Dinge hinzuweisen, die ein solches Modell mit sich bringen könnte. Ich stelle fest, dass Ihre Antwort auch in dieser Richtung keine Fortschritte macht ;-).
whuber
@whuber - und wo mache ich eine Annäherung in meiner Gleichung, damit sie nicht genau ist?
Wahrscheinlichkeitslogik
@probability Sie begründen dies nicht: Sie geben einfach das Ergebnis bekannt, das ich bereits veröffentlicht habe. Mit anderen Worten, Sie stellen fest, dass OLS, wenn es einen solchen Ausdruck minimiert, tatsächlich gewichtete kleinste Quadrate ausführt. OK, aber ist das nicht ganz offensichtlich? Was rechtfertigt diese Wahl der Gewichte? Woher kommen sie?
whuber
1

Ich denke, dass du tatsächlich als dein Gewicht meinst oder dass . Wenn und wir als Gewicht nehmen, dann ist . Dies gewichtet also die vorliegende Beobachtung am wenigsten. Wenn wir zum Beispiel dann ist und so weiter.ktk>10<k<1ktk=k=0.5k0=1,k1=2,k2=4,,k20106

Dies ist nur eine Aussage darüber, wie sich die Varianz mit jeder Beobachtung ändert (sie wird größer, wenn Sie sich ab dem Zeitpunkt weiter rückwärts bewegen ):T

(yTt|xTt,a,b,k,s)Normal(axTt+b,s2kt)

Bezeichnet und Wir haben eine gemeinsame Log-Wahrscheinlichkeit von:Y{yT,yT1,,y1}X{xT,xT1,,x1}

log[p(Y|X,a,b,k,s)]=12(Tlog(2πs2kt)+t=0T1(yTtaxTtb)2s2kt)

Um also die Maximum-Likelihood-Schätzungen von undbab , haben Sie die folgende Zielfunktion:

t=0T1kt(yTtaxTtb)2

Welches ist das, was du suchst?

Wahrscheinlichkeitslogik
quelle