In der Arbeit über ein vollständig faltungsorientiertes neuronales Netzwerk erwähnen die Autoren sowohl das Patch-weise Training als auch das vollständig faltungsorientierte Training.
Mein Verständnis für den Aufbau des Trainingssets ist wie folgt:
M*M
Extrahieren Sie bei einem gegebenen Bild Unterbilder mit N*N
, wobei ( N<M
). Die ausgewählten Teilbilder überlappen sich untereinander. Für jeden Stapel im Trainingsprozess können alle Teilbilder für ein bestimmtes Bild oder mehrere Bilder enthalten sein.
Ist mein Verständnis richtig? Was ist dann der Unterschied zwischen Patch-Training und vollständig Faltungs-Training? Ich füge den entsprechenden Abschnitt als Referenz hinzu.