Wenn mehr als zwei Kategorien hat, ist Ihre Frage nach dem "Vorteil" einer Regression gegenüber der anderen wahrscheinlich bedeutungslos, wenn Sie die Parameter der Modelle vergleichen möchten , da sich die Modelle grundlegend unterscheiden:Y
logP(i)P(not i)=logiti=linear combination für jede binäre logistische Regression, undi
logP(i)P(r)=logiti=linear combination für jede Kategorie in mehrfacher logistischer Regression, wobei die ausgewählte Referenzkategorie ist ( ).iri≠r
Allerdings, wenn Ihr Ziel ist nur Wahrscheinlichkeit vorherzusagen jede Kategorie entweder Ansatz ist gerechtfertigt, wenn auch sie unterschiedliche Wahrscheinlichkeitsschätzungen geben können. Die Formel zum Schätzen einer Wahrscheinlichkeit ist generisch:i
P′(i)=exp(logiti)exp(logiti)+exp(logitj)+⋯+exp(logitr) , wobei alle Kategorien sind, und wenn als Referenz gewählt wurde, ist . Für die binäre Logistik die gleiche Formel also . Multinomiale Logistik beruht auf der (nicht immer realistischen) Annahme der Unabhängigkeit von irrelevanten Alternativen, während dies bei einer Reihe von binären logistischen Vorhersagen nicht der Fall ist.i,j,…,rrexp(logit)=1P′(i)=exp(logiti)exp(logiti)+1
Ein eigenes Thema ist , was technische Unterschiede zwischen multinomial und binären logistischen Regressionen in Fall sind , wenn ist dichotomous . Wird es Unterschiede bei den Ergebnissen geben? Meistens sind die Ergebnisse ohne Kovariaten gleich, es gibt jedoch Unterschiede in den Algorithmen und in den Ausgabeoptionen. Lassen Sie mich nur die SPSS-Hilfe zu diesem Problem in SPSS zitieren:Y
Binäre logistische Regressionsmodelle können entweder mit dem Verfahren der logistischen Regression oder mit dem Verfahren der multinomialen logistischen Regression angepasst werden. Jede Prozedur verfügt über Optionen, die in der anderen nicht verfügbar sind. Eine wichtige theoretische Unterscheidung besteht darin, dass das Verfahren der logistischen Regression alle Vorhersagen, Residuen, Einflussstatistiken und Anpassungstests unter Verwendung von Daten auf Einzelfallebene erstellt, unabhängig davon, wie die Daten eingegeben werden und ob die Anzahl der Kovariatenmuster vorliegt oder nicht ist kleiner als die Gesamtzahl der Fälle, während das multinomiale logistische Regressionsverfahren Fälle intern aggregiert, um Subpopulationen mit identischen Kovariatenmustern für die Prädiktoren zu bilden, wobei auf Basis dieser Subpopulationen Vorhersagen, Residuen und Anpassungstests erstellt werden.
Die logistische Regression bietet die folgenden einzigartigen Funktionen:
• Hosmer-Lemeshow-Test auf Passgenauigkeit für das Modell
• Schrittweise Analysen
• Kontraste zur Definition der Modellparametrisierung
• Alternative Schnittpunkte für die Klassifizierung
• Klassifizierungsdiagramme
• Modell auf einem Koffersatz auf einem ausgestreckten Koffersatz montiert
• Speichert Vorhersagen, Residuen und Einflussstatistiken
Multinomial Logistic Regression bietet die folgenden einzigartigen Funktionen:
• Pearson- und Abweichungs-Chi-Quadrat-Tests für die Passgenauigkeit des Modells
• Angabe von Teilpopulationen zur Gruppierung von Daten für Anpassungstests
• Auflistung von Zählungen, vorhergesagten Zählungen und Residuen nach Teilpopulationen
• Korrektur von Varianzschätzungen für Überstreuung
• Kovarianzmatrix der Parameterschätzungen
• Tests linearer Parameterkombinationen
• Explizite Angabe verschachtelter Modelle
• Passen Sie 1-1 übereinstimmende Modelle für bedingte logistische Regression unter Verwendung differenzierter Variablen an