Meine Fragen sind:
- Werden generalisierte lineare Modelle (GLMs) garantiert zu einem globalen Maximum konvergieren? Wenn ja warum?
- Welche Einschränkungen gibt es für die Verbindungsfunktion, um die Konvexität sicherzustellen?
Mein Verständnis von GLMs ist, dass sie eine hochgradig nichtlineare Wahrscheinlichkeitsfunktion maximieren. Daher würde ich mir vorstellen, dass es mehrere lokale Maxima gibt und der Parametersatz, zu dem Sie konvergieren, von den Anfangsbedingungen für den Optimierungsalgorithmus abhängt. Nach einigen Recherchen habe ich jedoch keine einzige Quelle gefunden, die darauf hinweist, dass es mehrere lokale Maxima gibt. Außerdem bin ich mit Optimierungstechniken nicht so vertraut, aber ich weiß, dass die Newton-Raphson-Methode und der IRLS-Algorithmus für lokale Maxima sehr anfällig sind.
Bitte erläutern Sie möglichst sowohl intuitiv als auch mathematisch!
BEARBEITEN: dksahuji hat meine ursprüngliche Frage beantwortet, aber ich möchte die Anschlussfrage [ 2 ] oben hinzufügen . ("Welche Einschränkungen gibt es für die Verbindungsfunktion, um die Konvexität sicherzustellen?")