Ich arbeite derzeit an einer Gesichtserkennungssoftware, die Faltungs-Neuronale Netze verwendet, um Gesichter zu erkennen. Aufgrund meiner Messwerte habe ich festgestellt, dass ein neuronales Faltungsnetzwerk gemeinsame Gewichte hat, um Zeit während des Trainings zu sparen. Aber wie passt man die Backpropagation an, damit sie in einem neuronalen Faltungsnetzwerk verwendet werden kann? Bei der Backpropagation verwendet man eine ähnliche Formel, um die Gewichte zu trainieren.
New Weight = Old Weight + LEARNING_RATE * 1 * Output Of InputNeuron * Delta
Da jedoch in Faltungs-Neuronalen Netzen die Gewichte geteilt werden, wird jedes Gewicht mit mehreren Neuronen verwendet. Wie entscheide ich also, welches Output of InputNeuron
verwendet wird?
Mit anderen Worten, da die Gewichte geteilt werden, wie entscheide ich, um wie viel die Gewichte geändert werden sollen?