Unterschiede zwischen logistischer Regression und Perzeptronen


16

Wie ich verstehe, ist ein Perzeptron / einschichtiges künstliches neuronales Netzwerk mit einer logistischen Sigmoid-Aktivierungsfunktion dasselbe Modell wie eine logistische Regression. Beide Modelle ergeben sich aus der Gleichung:

F(x)=11-e-βX

Der Perzeptron-Lernalgorithmus ist online und fehlergesteuert, während die Parameter für die logistische Regression mithilfe verschiedener Batch-Algorithmen wie Gradientenabstieg und BFGS mit begrenztem Speicher oder eines Online-Algorithmus wie stochastischer Gradientenabstieg gelernt werden können. Gibt es weitere Unterschiede zwischen der logistischen Regression und einem Sigma-Perzeptron? Sollten die Ergebnisse eines mit stochastischer Gradientenabnahme trainierten logistischen Regressors mit denen des Perzeptrons vergleichbar sein?


2
Diese Frage sieht ähnlich aus und scheint bessere Antworten zu enthalten :)
Ralph Tigoumo

Antworten:


1

Sie haben bereits die wichtigen Unterschiede erwähnt. Die Ergebnisse sollten sich also nicht so stark unterscheiden.


1
Dies ist keine Antwort auf die Frage. Um einen Autor zu kritisieren oder um Klarstellung zu bitten, hinterlassen Sie einen Kommentar unter seinem Beitrag.
Xi'an

1
Eigentlich habe ich versucht, beide Fragen zu beantworten: 1) "Gibt es noch andere Unterschiede zwischen logistischer Regression und einem Sigma-Perzeptron?" und 2) Sollten die Ergebnisse eines mit stochastischer Gradientenabnahme trainierten logistischen Regressors mit denen des Perzeptrons vergleichbar sein?
Michael Dorner

7
Das ist eine vernünftige Position, @MichaelDorner. Würde es Ihnen etwas ausmachen, Ihre Antwort ein wenig zu erweitern, um dies klarer zu machen?
Gung - wieder einzusetzen Monica

3

Ich glaube, ein Unterschied, den Sie vermissen, ist die Tatsache, dass die logistische Regression eine prinzipielle Klassifizierungswahrscheinlichkeit liefert, während Perzeptrone mit einer harten Grenze klassifizieren.

Dies wird im Wiki-Artikel zur multinomialen logistischen Regression erwähnt .


2

Es gibt tatsächlich einen großen wesentlichen Unterschied, der mit den von Ihnen erwähnten technischen Unterschieden zusammenhängt. Die logistische Regression modelliert eine Funktion des Mittelwerts einer Bernoulli-Verteilung als lineare Gleichung (wobei der Mittelwert gleich der Wahrscheinlichkeit p eines Bernoulli-Ereignisses ist). Durch die Verwendung des Logit-Links als Funktion des Mittelwerts ( p ) kann der Logarithmus der Quoten (log-odds) analytisch abgeleitet und als Antwort auf ein sogenanntes verallgemeinertes lineares Modell verwendet werden. Die Parameterschätzung dieses GLM ist dann ein statistischer Prozess, der p-Werte und Konfidenzintervalle für Modellparameter liefert. Auf diese Weise können Sie das Modell zusätzlich zur Vorhersage in kausalen Schlussfolgerungen interpretieren. Dies ist etwas, was Sie mit einem linearen Perceptron nicht erreichen können.

Das Perceptron ist ein Reverse Engineering-Prozess der logistischen Regression: Anstatt das logit von y zu verwenden, verwendet es die inverse logit (logistic) -Funktion von wx und verwendet keine probabilistischen Annahmen weder für das Modell noch für dessen Parameterschätzung. In Online-Schulungen erhalten Sie genau die gleichen Schätzungen für die Modellgewichte / -parameter, können diese jedoch aufgrund fehlender p-Werte, Konfidenzintervalle und eines zugrunde liegenden Wahrscheinlichkeitsmodells nicht in kausalen Schlussfolgerungen interpretieren.

Kurz gesagt, logistische Regression ist ein GLM, das Vorhersagen und Schlüsse ziehen kann, wohingegen das lineare Perceptron nur Vorhersagen treffen kann (in diesem Fall entspricht dies der logistischen Regression). Der Unterschied zwischen beiden ist auch der grundlegende Unterschied zwischen statistischer Modellierung und maschinellem Lernen.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.