Ich habe die Architektur des siamesischen neuronalen Netzwerks untersucht, die Yann LeCun und seine Kollegen 1994 zur Erkennung von Signaturen eingeführt haben ( „Signaturüberprüfung mit einem siamesischen neuronalen Netzwerk mit Zeitverzögerung“ .pdf , NIPS 1994).
Ich habe die allgemeine Idee dieser Architektur verstanden, aber ich kann wirklich nicht verstehen, wie die Backpropagation in diesem Fall funktioniert. Ich kann nicht verstehen, was die Zielwerte des neuronalen Netzwerks sind, die es der Rückausbreitung ermöglichen, die Gewichte jedes Neurons richtig einzustellen.
In dieser Architektur berechnet der Algorithmus die Kosinusähnlichkeit zwischen den endgültigen Darstellungen der beiden neuronalen Netze. In der Arbeit heißt es: "Die gewünschte Ausgabe ist für einen kleinen Winkel zwischen den Ausgaben der beiden Teilnetze (f1 und f2), wenn echte Signaturen präsentiert werden und ein großer Winkel, wenn eine der Signaturen eine Fälschung ist ".
Ich kann nicht wirklich verstehen, wie sie eine Binärfunktion (Kosinusähnlichkeit zwischen zwei Vektoren) als Ziel verwenden könnten, um die Backpropagation auszuführen.
Wie wird die Backpropagation in den siamesischen neuronalen Netzen berechnet?