Dies ist eine terminologische Frage. Manchmal sehe ich Menschen, die tiefe neuronale Netze als "vielschichtige Perzeptrone" bezeichnen. Warum ist das so? Mir wurde beigebracht, dass ein Perzeptron ein einschichtiger Klassifikator (oder Regressor) mit einem binären Schwellenwert ist, der eine bestimmte Art des Trainings der Gewichte verwendet (kein Back-Prop). Wenn die Ausgabe des Perzeptrons nicht mit der Zielausgabe übereinstimmt, addieren oder subtrahieren wir den Eingabevektor zu den Gewichten (abhängig davon, ob das Perzeptron falsch positiv oder falsch negativ war). Es ist ein recht primitiver Algorithmus für maschinelles Lernen. Das Trainingsverfahren scheint sich nicht auf einen mehrschichtigen Fall zu verallgemeinern (zumindest nicht ohne Änderung). Ein tiefes neuronales Netzwerk wird über Backprop trainiert, wobei die Kettenregel verwendet wird, um Gradienten der Kostenfunktion über alle Gewichte des Netzwerks hinweg weiterzugeben.
Die Frage ist also. Ist ein "mehrschichtiges Perzeptron" dasselbe wie ein "tiefes neuronales Netzwerk"? Wenn ja, warum wird diese Terminologie verwendet? Es scheint unnötig verwirrend zu sein. Darüber hinaus habe ich unter der Annahme, dass die Terminologie einigermaßen austauschbar ist, die Terminologie "mehrschichtiges Perzeptron" nur für ein Feed-Forward-Netzwerk gesehen, das aus vollständig verbundenen Schichten besteht (keine Faltungsschichten oder wiederkehrende Verbindungen). Wie weit ist diese Terminologie? Würde man den Begriff "mehrschichtiges Perzeptron" verwenden, wenn man sich zum Beispiel auf Inception net bezieht? Wie wäre es mit einem wiederkehrenden Netzwerk mit LSTM-Modulen, die in NLP verwendet werden?