Hat die Protokollwahrscheinlichkeit in GLM die Konvergenz zu globalen Maxima garantiert?


16

Meine Fragen sind:

  1. Werden generalisierte lineare Modelle (GLMs) garantiert zu einem globalen Maximum konvergieren? Wenn ja warum?
  2. Welche Einschränkungen gibt es für die Verbindungsfunktion, um die Konvexität sicherzustellen?

Mein Verständnis von GLMs ist, dass sie eine hochgradig nichtlineare Wahrscheinlichkeitsfunktion maximieren. Daher würde ich mir vorstellen, dass es mehrere lokale Maxima gibt und der Parametersatz, zu dem Sie konvergieren, von den Anfangsbedingungen für den Optimierungsalgorithmus abhängt. Nach einigen Recherchen habe ich jedoch keine einzige Quelle gefunden, die darauf hinweist, dass es mehrere lokale Maxima gibt. Außerdem bin ich mit Optimierungstechniken nicht so vertraut, aber ich weiß, dass die Newton-Raphson-Methode und der IRLS-Algorithmus für lokale Maxima sehr anfällig sind.

Bitte erläutern Sie möglichst sowohl intuitiv als auch mathematisch!

BEARBEITEN: dksahuji hat meine ursprüngliche Frage beantwortet, aber ich möchte die Anschlussfrage [ 2 ] oben hinzufügen . ("Welche Einschränkungen gibt es für die Verbindungsfunktion, um die Konvexität sicherzustellen?")


Ich denke, dass einige Einschränkungen erforderlich sein müssen, bevor das so sein könnte. Was ist die Quelle für die Aussage?
Glen_b

Einige Seiten schienen darauf hinzudeuten, aber ich konnte nichts finden, was es direkt erwähnte, also begrüße ich auch seinen Disproof!
DankMasterDan

Solange die Wahrscheinlichkeit überall in der Domäne gut definiert ist (und einige tangentiale numerische Probleme ignoriert werden), denke ich, ja. Unter diesen Bedingungen ist das Hessische überall in der Domäne <0, sodass die Ähnlichkeit global konkav ist. Übrigens ist die Funktion in den Parametern nicht "hochgradig nichtlinear" , und darauf kommt es an.
user603

@ user603 was ist deine Quelle / der Beweis, dass der Hessische überall <0 ist?
DankMasterDan

Logistische, Poisson- und Gaußsche Regressionen sind bei einer "guten" Verknüpfungsfunktion häufig konvex. Bei einer beliebigen Verknüpfungsfunktion sind sie jedoch nicht konvex.
Memming

Antworten:


11

Die Definition der Exponentialfamilie lautet:

p(x|θ)=h(x)exp(θTϕ(x)-EIN(θ)),

wobei die Log-Partitionsfunktion ist. Nun kann man beweisen, dass die folgenden drei Dinge für 1D gelten (und sie verallgemeinern sich auf höhere Dimensionen - Sie können Eigenschaften von Exponentialfamilien oder Protokollpartitionen untersuchen):EIN(θ)

  1. dEINdθ=E[ϕ(x)]

  2. d2EINdθ2=E[ϕ2(x)]-E[ϕ(x)]2=veinr(ϕ(x))

  3. 2EINθichθj=E[ϕich(x)ϕj(x)]-E[ϕich(x)]E[ϕj(x)]=cÖv(ϕ(x))Δ2EIN(θ)=cÖv(ϕ(x))

Das obige Ergebnis beweist, dass konvex ist (da c o v ( ϕ ( x ) ) positiv semidefinit ist). Nun werfen wir einen Blick auf die Wahrscheinlichkeitsfunktion für MLE: EIN(θ)cÖv(ϕ(x))

p(D|θ)=[i=1Nh(xi)] exp(θT[i=1Nϕ(xi)]NA(θ))log(p(D|θ))=θT[i=1Nϕ(xi)]NA(θ)=θT[ϕ(D)]-NEIN(θ)

Nun ist linear in Theta und - A ( θ ) konkav ist . Daher gibt es ein eindeutiges globales Maximum.θT[ϕ(D)]-EIN(θ)

Es gibt eine verallgemeinerte Version, die als gekrümmte Exponentialfamilie bezeichnet wird und ebenfalls ähnlich wäre. Die meisten Beweise sind jedoch in kanonischer Form.


Bedeutet dies, dass GLM einen einzigartigen globalen Minima-Nomatter hat, für den die Verbindungsfunktion ausgewählt wurde (einschließlich der nicht-kanonischen)?
DankMasterDan

1
p(x|θ)=h(x)exp(η(θ)Tϕ(x)-EIN(η(θ)))ηθηθ

Beachten Sie, dass sich die Frage eher nach Konvergenz als nach bloßer Existenz richtet, aber mit ein paar Einschränkungen, die auch machbar sein können.
Glen_b -Reinstate Monica

@ Glen_b Können Sie näher darauf eingehen? Ich kenne solche Einschränkungen nicht. Möglicherweise gibt es Einschränkungen in Bezug auf die Schrittweite in einem gradientenbasierten Optimierer, um die Konvergenz im Falle einer konkaven Funktion zu gewährleisten.
Dksahuji

1
@ Glen_b Das mag im Allgemeinen zutreffen, aber ich kann keinen Grund dafür erkennen, dass die Konkavfunktion nicht innerhalb eines kleinen tolerierbaren Wertes zu Optima konvergiert. Aber ich würde sagen, dass ich keine praktischen Erfahrungen damit habe und gerade erst angefangen habe. :)
Dksahuji
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.