Antworten:
"Backprop" ist dasselbe wie "Backpropagation": Es ist nur eine kürzere Art, es auszudrücken. Es wird manchmal als "BP" abgekürzt.
'Backprop' ist die Abkürzung für 'Backpropagation of Error', um Verwirrung bei der Verwendung des Backpropagation- Begriffs zu vermeiden .
Grundsätzlich bezieht sich Backpropagation auf das Verfahren zur Berechnung des Gradienten der fallweisen Fehlerfunktion in Bezug auf die Gewichte für ein Feedforward-Netzwerk Werbos . Und Backprop bezieht sich auf eine Trainingsmethode, die Backpropagation verwendet, um den Gradienten zu berechnen.
Wir können also sagen, dass ein Backprop- Netzwerk ein durch Backpropagation trainiertes Feedforward-Netzwerk ist .
Der Begriff "Standard-Backprop" ist ein Euphemismus für die verallgemeinerte Delta-Regel, die am häufigsten als überwachte Trainingsmethode verwendet wird.
Quelle: Was ist Backprop? bei FAQ der Usenet-Newsgroup comp.ai.neural-nets
Verweise:
Ja, wie Franck zu Recht gesagt hat, bedeutet "Backprop" Backpropogation, die im Bereich neuronaler Netze häufig zur Fehleroptimierung verwendet wird.
Für eine ausführliche Erklärung möchte ich auf dieses Tutorial zum Konzept der Backpropogation durch ein sehr gutes Buch von Michael Nielsen hinweisen .
Beim maschinellen Lernen ist Backpropagation (Backprop, BP) ein weit verbreiteter Algorithmus beim Training von vorwärtsgerichteten neuronalen Netzen für überwachtes Lernen. Verallgemeinerungen der Backpropagation existieren für andere künstliche neuronale Netze (ANNs) und für Funktionen im Allgemeinen - eine Klasse von Algorithmen, die allgemein als "Backpropagation" bezeichnet werden.
Es ist ein ausgefallener Name für die multivariable Kettenregel.