Die Kullback-Leibler-Divergenz ist eine Metrik zum Vergleichen von zwei Wahrscheinlichkeitsdichtefunktionen, aber welche Metrik wird zum Vergleichen von zwei GPs und ?
Die Kullback-Leibler-Divergenz ist eine Metrik zum Vergleichen von zwei Wahrscheinlichkeitsdichtefunktionen, aber welche Metrik wird zum Vergleichen von zwei GPs und ?
Antworten:
Beachten Sie, dass die Verteilung der Gaußschen Prozesse die Erweiterung des multivariaten Gaußschen Prozesses für möglicherweise unendlich . Daher können Sie die KL-Divergenz zwischen den GP-Wahrscheinlichkeitsverteilungen verwenden, indem Sie über :
Sie können MC-Methoden verwenden, um diese Menge über ein diskretisiertes numerisch zu approximieren, indem Sie Prozesse entsprechend ihrer GP-Verteilung wiederholt abtasten. Ich weiß nicht, ob die Konvergenzgeschwindigkeit ausreichend gut ist ...
Beachten Sie, dass wenn endlich ist mit , Sie auf die übliche KL-Divergenz für multivariate Normalverteilungen zurückgreifen: | X | = N D K L ( G P ( μ 1 , K 1 ) , G P ( μ 2 , K 2 ) ) = 1
Denken Sie daran, dass, wenn ein Gauß'scher Prozess mit der mittleren Funktion und der Kovarianzfunktion ist, für jeden der Zufallsvektor hat eine multivariate Normalverteilung mit mittlerem Vektor und Kovarianzmatrix , wobei wir die gebräuchliche Abkürzung . m K t 1 , ... , t k ∈ T ( X ( t 1 ) , ... , X ( t k ) ) ( m ( t 1 ) , ... , m ( t k ) ) Σ = ( σ i j ) = ( K ( t iX ( t ) = X ( t ,
Jede Realisierung ist eine reelle Funktion, deren Domäne die Indexmenge . Angenommen, . Gegeben seien zwei Gaußprozesse und , einen gemeinsamen Abstand zwischen zwei Realisierungen und ist. Daher erscheint es natürlich, den Abstand zwischen den beiden Prozessen und als T T = [ 0 , 1 ] X Y X (Y (