Grundlegendes zur Gaußschen Prozessregression in der Funktionsansicht mit unbegrenzter Dimensionsbasis


14

Es wird oft gesagt, dass die Gaußsche Prozessregression (GPR) der Bayes'schen linearen Regression mit einer (möglicherweise) unendlichen Anzahl von Basisfunktionen entspricht. Ich versuche derzeit, dies im Detail zu verstehen, um eine Vorstellung davon zu bekommen, welche Art von Modellen ich mit GPR ausdrücken kann.

  1. Glauben Sie, dass dies ein guter Ansatz ist, um GPR zu verstehen?

In dem Buch Gaußsche Prozesse für maschinelles Lernen zeigen Rasmussen und Williams, dass die Menge der Gaußschen Prozesse, die durch den parametrisierten Exponentialquadratkern kann äquivalent als Bayes'sche Regression mit vorheriger Überzeugung über die Gewichte und unendlich viele Basisfunktionen von beschrieben werden die Form Somit könnte die Parametrisierung des Kernels vollständig in eine Parametrisierung der Basis übersetzt werden funktionen.wN(0,σ 2 p I)c(x;l)=exp(-(x-c)2

k(x,x;l)=σp2exp((xx)22l2)
wN(0,σp2I)
ϕc(x;l)=exp(-(x-c)22l2)
  1. Kann die Parametrisierung eines differenzierbaren Kernels immer in eine Parametrisierung der Vorgänger- und Basisfunktionen übersetzt werden oder gibt es differenzierbare Kernel, bei denen zB die Anzahl der Basisfunktionen von der Konfiguration abhängt?

Mein bisheriges Verständnis ist, dass für eine feste Kernelfunktion k (x, x ') Mercers Theorem uns sagt, dass ausgedrückt werden kann als wobei eine Funktion entweder in die reellen oder die komplexen Zahlen ist. Somit hat für einen gegebenen Kern das entsprechende Bayes'sche Regressionsmodell vor und Basisfunktionen . Somit kann jeder GP sogar als Bayes'sches lineares Regressionsmodell mit Diagonalprior formuliert werden. Wenn wir nun jedoch den Mercer-Satz für jede Konfiguration eines parametrisierten Kernels , der bei jedem differenzierbar istk ( x , x ' ) = & Sigma; i = 1 λ i φ i ( x ) φ i ( x ' ) φ i w ~ N ( 0 , diag ( [ λ 2 1 θ ) θk(x,x)

k(x,x)=ich=1λichϕich(x)ϕich(x)
ϕichwN(0,diag([λ12,]))ϕichk(x,x,θ)θ die entsprechenden von verschiedenen Eigenwerten und Eigenfunktionen könnte für jede Konfiguration.

Meine nächste Frage betrifft das Inverse des Mercer-Theorems.

  1. Welche Basisfunktionen führen zu gültigen Kerneln?

Und die Verlängerung

  1. Welche Sätze von parametrisierten Basisfunktionen führen zu gültigen differenzierbaren Kerneln?

Antworten:


1

Hier einige Bemerkungen. Vielleicht kann jemand anderes die Details eintragen.

1) Basisdarstellungen sind immer eine gute Idee. Es ist schwer, sie zu vermeiden, wenn Sie mit Ihrer Kovarianzfunktion tatsächlich etwas Rechnen möchten. Die Basiserweiterung kann Ihnen eine Annäherung an den Kernel und etwas geben, mit dem Sie arbeiten können. Die Hoffnung ist, dass Sie eine Basis finden, die für das zu lösende Problem Sinn macht.

θθ

Normalerweise ist die Anzahl der Basisfunktionen (abzählbar) unendlich, sodass die Anzahl nicht mit dem Parameter variiert, es sei denn, einige Werte haben den Kernel entartet.

wN(0,dicheinG[λ12,])wdicheinG[λ12,]

λichλichx

Wenn die Basisfunktionen nicht orthogonal sind, ist es schwieriger zu zeigen, dass eine daraus definierte Kovarianz positiv definit ist. Offensichtlich handelt es sich in diesem Fall nicht um eine Eigenerweiterung, sondern um eine andere Annäherung der interessierenden Funktion.

Ich glaube jedoch nicht, dass die Leute normalerweise von einer Reihe von Funktionen ausgehen und dann versuchen, einen Kovarianzkernel daraus zu erstellen.

RE: Differenzierbarkeit des Kernels und Differenzierbarkeit der Basisfunktionen. Ich kenne die Antwort auf diese Frage nicht wirklich, aber ich würde die folgende Bemerkung machen.

Die Funktionsanalyse erfolgt durch Approximation von Funktionen (aus einem unendlichen dimensionalen Raum) durch endliche Summen einfacherer Funktionen. Damit dies funktioniert, hängt alles von der Art der Konvergenz ab. Wenn Sie an einer kompakten Menge mit starken Konvergenzeigenschaften (gleichmäßige Konvergenz oder absolute Summierbarkeit) für die gewünschten Funktionen arbeiten, erhalten Sie in der Regel das gewünschte intuitive Ergebnis: Die Eigenschaften der einfachen Funktionen werden übernommen die Grenzwertfunktion - wenn der Kernel eine differenzierbare Funktion eines Parameters ist, müssen die Erweiterungsfunktionen differenzierbare Funktionen desselben Parameters sein und umgekehrt. Bei schwächeren Konvergenzeigenschaften oder nicht kompakten Domänen tritt dies nicht auf. Meiner Erfahrung nach gibt es zu jeder "vernünftigen" Idee ein Gegenbeispiel.

Hinweis: Um möglichen Verwirrungen der Leser dieser Frage vorzubeugen, ist zu beachten, dass die Gaußsche Erweiterung von Punkt 1 kein Beispiel für die Eigenerweiterung von Punkt 2 ist.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.