Der Hintergrund meiner Studie :
In einem Gibbs-Sampling , wo wir Probe (die Variablen von Interesse) und aus und ist, wobei und sind -dimensionalen Zufallsvektoren. Wir wissen, dass der Prozess normalerweise in zwei Phasen unterteilt ist:
- Einbrennzeit, in der alle Proben verworfen werden. Bezeichnen Sie die Proben als und .
- "After-Burn-In" -Periode, in der wir die Proben als unser gewünschtes Endergebnis.
Die Proben in der "Nachbrenn" -Sequenz sind jedoch nicht unabhängig verteilt. Wenn ich also die Varianz des Endergebnisses untersuchen möchte, wird es
Hier ist der Term eine k × k -Kreuzkovarianzmatrix, die für jedes ( i , j ) mit i < j gilt .
Zum Beispiel habe ich
dann könnte ich die Kovarianzmatrix mit schätzen
Jetzt interessiert mich, ob die resultierende Schätzung signifikant ungleich Null ist, so dass ich sie in meine Varianzschätzung von .
Hier kommen meine Fragen :
- Wir probieren aus P ( X t + i | Y t + i ) . Da sich Y t + i ändert, denke ich, dass X t + i und X t + i + 1 nicht aus derselben Verteilung stammen, also ist Cov [ X t + i , X t + j ] nicht dasselbe wie Cov [ X t. Ist diese Aussage richtig?
- Angenommen, ich habe genügend Daten, um (benachbarte Stichproben in der Sequenz) zu schätzen. Gibt es eine Möglichkeit zu testen, ob die Kovarianzmatrix signifikant eine Nicht-Null-Matrix ist? Im Großen und Ganzen interessiert mich ein Indikator, der mich zu einigen aussagekräftigen Kreuzkovarianzmatrizen führt, die in meine endgültige Varianzschätzung einbezogen werden sollten.
Antworten:
Sie verwechseln hier bedingte und bedingungslose Verteilungen, siehe auch meine nächste Bemerkung. Bedingt durch und Y t + i + 1 = y 2 , P ( X t + i | Y t + i = y 1 ) ≠ P ( X t + i + 1 | Y t + i + 1 = y 2Yt+i=y1 Yt+i+1=y2 . Der gesamte Sinn der Konstruktion Ihres Gibbs-Samplers besteht jedoch darin, aus den stationären Verteilungen von X und Y abzutasten . Wenn Sie Ihre Kette lange genug laufen lassen und { Y t } der stationären Verteilung folgt, können Siegrobgesagt P ( X t ) = ∫ Y P ( X t | Y t ) d P ( Y t ) sagen
) ,
was bedeutet, dass die bedingungslose Verteilung von X tP(Xt+i|Yt+i=y1)≠P(Xt+i+1|Yt+i+1=y2) X Y {Yt}
Well, if you had infinitely many observations, they will all be significant eventually. Clearly, you cannot do this in practice, but there are ways of 'chopping off' the expansion after some terms, see the accepted excellent answer here. Basically, you define a kernelk(⋅) which decays to 0 and assigns weights to the first lT covariance matrices that you could compute. If you want to choose lT in a principled way, you will have to dig a bit into the literature, but the post I linked gives you some good references to do exactly that.
quelle