Die Kullback-Leibler-Divergenz ist eine Metrik zum Vergleichen von zwei Wahrscheinlichkeitsdichtefunktionen, aber welche Metrik wird zum Vergleichen von zwei GPs und ?
gaussian-process
metric
Pushkar
quelle
quelle
Antworten:
Beachten Sie, dass die Verteilung der Gaußschen Prozesse die Erweiterung des multivariaten Gaußschen Prozesses für möglicherweise unendlich . Daher können Sie die KL-Divergenz zwischen den GP-Wahrscheinlichkeitsverteilungen verwenden, indem Sie über :X→R X RX
Sie können MC-Methoden verwenden, um diese Menge über ein diskretisiertes numerisch zu approximieren, indem Sie Prozesse entsprechend ihrer GP-Verteilung wiederholt abtasten. Ich weiß nicht, ob die Konvergenzgeschwindigkeit ausreichend gut ist ...X
Beachten Sie, dass wenn endlich ist mit , Sie auf die übliche KL-Divergenz für multivariate Normalverteilungen zurückgreifen: | X | = N D K L ( G P ( μ 1 , K 1 ) , G P ( μ 2 , K 2 ) ) = 1X |X|=n
quelle
Denken Sie daran, dass, wenn ein Gauß'scher Prozess mit der mittleren Funktion und der Kovarianzfunktion ist, für jeden der Zufallsvektor hat eine multivariate Normalverteilung mit mittlerem Vektor und Kovarianzmatrix , wobei wir die gebräuchliche Abkürzung . m K t 1 , ... , t k ∈ T ( X ( t 1 ) , ... , X ( t k ) ) ( m ( t 1 ) , ... , m ( t k ) ) Σ = ( σ i j ) = ( K ( t iX:T×Ω→R m K t1,…,tk∈T (X(t1),…,X(tk)) (m(t1),…,m(tk)) X ( t ) = X ( t ,Σ=(σij)=(K(ti,tj)) X(t)=X(t,⋅)
Jede Realisierung ist eine reelle Funktion, deren Domäne die Indexmenge . Angenommen, . Gegeben seien zwei Gaußprozesse und , einen gemeinsamen Abstand zwischen zwei Realisierungen und ist. Daher erscheint es natürlich, den Abstand zwischen den beiden Prozessen und als T T = [ 0 , 1 ] X Y X (X(⋅,ω) T T=[0,1] X Y Y (X(⋅,ω) Y(⋅,ω) supt∈[0,1]|X(t,ω)−Y(t,ω)| X Y
quelle