Ich habe mein Modell auf meinem lokalen Computer trainiert, wo der Speicher nur für 10 Beispiele pro Stapel ausreicht. Als ich jedoch mein Modell auf AWS migrierte und eine größere GPU (Tesla K80) verwendete, konnte ich eine Stapelgröße von 32 aufnehmen. Die AWS-Modelle zeigten jedoch alle eine sehr, sehr schlechte Leistung mit einem großen Hinweis auf Überanpassung. Warum passiert das?
Das Modell, das ich derzeit verwende, ist das Modell inception-resnet-v2, und das Problem, auf das ich abziele, ist ein Computer-Vision-Modell. Eine Erklärung, die ich mir vorstellen kann, ist, dass es wahrscheinlich der Batch-Norm-Prozess ist, der es stärker an die Batch-Bilder gewöhnt. Zur Abschwächung habe ich den gleitenden Durchschnitt des Batch_Norm-Zerfalls reduziert.
Sollte ich Dropout auch zusammen mit batch_norm verwenden? Ist diese Praxis üblich?
Meine Trainingsbilder sind ungefähr 5000, aber ich habe ungefähr 60 Epochen trainiert. Wird dies als viel angesehen oder sollte ich das Training früher beenden?