Ich habe gerade etwas über Gibbs Sampling und Metropolis Hastings Algorithmus gelesen und habe ein paar Fragen.
Soweit ich weiß, wird bei einer Gibbs-Stichprobe, wenn wir ein großes multivariates Problem haben, von der bedingten Verteilung abgetastet, dh eine Variable abgetastet, während alle anderen festgehalten werden, während in MH von der vollständigen gemeinsamen Verteilung abgetastet wird.
In dem Dokument heißt es unter anderem, dass die vorgeschlagene Stichprobe in Gibbs Sampling immer akzeptiert wird, dh die Rate der Annahme von Vorschlägen ist immer 1. Für mich scheint dies ein großer Vorteil zu sein, da bei großen multivariaten Problemen die Ablehnungsrate für den MH-Algorithmus ziemlich hoch zu sein scheint . Wenn dies tatsächlich der Fall ist, warum wird Gibbs Sampler nicht ständig zur Erzeugung der posterioren Verteilung verwendet?
Antworten:
Der Hauptgrund für die Verwendung des Metropolis-Algorithmus liegt in der Tatsache, dass Sie ihn auch dann verwenden können, wenn der resultierende hintere Teil unbekannt ist. Für die Gibbs-Abtastung müssen Sie die posterioren Verteilungen kennen, aus denen Sie Variationen ziehen.
quelle
Gibbs-Sampling unterbricht den Fluch der Dimensionalität beim Sampling, da Sie den (möglicherweise hochdimensionalen) Parameterraum in mehrere niedrigdimensionale Schritte unterteilt haben. Metropolis-Hastings lindert einige der Dimensionsprobleme bei der Generierung von Ablehnungsabtasttechniken. Sie tasten jedoch immer noch mit einer vollständigen Multivariatenverteilung (und entscheiden, die Stichprobe zu akzeptieren / abzulehnen), wodurch der Algorithmus unter dem Fluch der Dimensionalität leidet.
Betrachten Sie es auf diese vereinfachte Weise: Es ist viel einfacher, ein Update für eine Variable gleichzeitig vorzuschlagen (Gibbs) als für alle Variablen gleichzeitig (Metropolis Hastings).
Davon abgesehen wird die Dimensionalität des Parameterraums weiterhin die Konvergenz in Gibbs und Metropolis Hastings beeinflussen, da es mehr Parameter gibt, die möglicherweise nicht konvergieren könnten.
Gibbs ist auch schön, weil jeder Schritt der Gibbs-Schleife in geschlossener Form sein kann. Dies ist häufig bei hierarchischen Modellen der Fall, bei denen jeder Parameter nur von wenigen anderen abhängig ist. Es ist oft ziemlich einfach, Ihr Modell so zu konstruieren, dass jeder Gibbs-Schritt in geschlossener Form vorliegt (wenn jeder Schritt konjugiert ist, wird er manchmal als "halbkonjugiert" bezeichnet). Das ist schön, weil Sie Samples von bekannten Distributionen verwenden, die oft sehr schnell sind.
quelle