Ja, das können Sie, und genau das leistet das R-Paket GLMNET für die multinomiale logistische Regression. Schreiben der Log-Likelihood-Funktion als:
LogL=∑i∑cniclog(pic)
Dabei bezeichnet Beobachtungen und die multinomialen Kategorien. ist die Anzahl der Beobachtungen für die Beobachtung in Kategorie . Die Beobachtungen werden durch ihre eindeutigen Kovariatenkombinationen definiert - oder alternativ können wir Duplikate zulassen und jedes sodass wir kategoriale "binäre" Daten haben (... wissen nicht, was der Plural von binär ist. ...). Für die logistische Regression sind die Wahrscheinlichkeiten wie folgt definiert:c n i c i c n i c = 1icnicicnic=1
pic=exp(xTiβc)∑c′exp(xTiβc′)
Dies ist eine weniger als vollständige Parametrisierung und kann hilfreich sein, wenn Sie die bestrafte Wahrscheinlichkeit verwenden (z. B. GLMNET). Wir könnten im Prinzip IRLS / Newton Rhapson für die vollständige Beta-Matrix , Sie erhalten jedoch nicht-diagonale Gewichtsmatrizen. Alternativ können wir den "Gibbs-Stil" optimieren, indem wir alle Kategorien-Betas bis auf eine festlegen und dann direkt über dieser Kategorie optimieren. Fahren Sie dann mit der nächsten Kategorie fort und so weiter. Sie können das sehen, weil die Wahrscheinlichkeiten die Form haben(β1,…,βC)
pic'=B
pic=exp(xTiβc)exp(xTiβc)+A where ∂A∂βc=0
pic′=Bexp(xTiβc)+A where ∂B∂βc=0
Dass die quadratische Erweiterung um dieselbe Form hat wie für die logistische Regression, jedoch mit unterschiedlich berechneten IRLS-Gewichten - obwohl wir immer noch im üblichen Update der Beta.βcWii,c=nicpic(1−pic)(XTWX)−1XTWY