Methode der Regularisierung
Für die folgenden 4 Techniken sind L1-Regularisierung und L2-Regularisierung natürlich eine Regularisierungsmethode. Sie schrumpfen das Gewicht. L1 würde sich darauf konzentrieren, eine kleinere Gewichtsmenge zu schrumpfen, wenn die Gewichte eine höhere Bedeutung haben.
Ein Ausfall verhindert eine Überanpassung, indem Neuronen vorübergehend ausfallen. Schließlich werden alle Gewichte als Durchschnitt berechnet, damit das Gewicht für ein bestimmtes Neuron nicht zu groß wird, und daher handelt es sich um eine Methode zur Regularisierung.
Die Chargennormalisierung sollte keine Methode zur Regularisierung sein, da der Hauptzweck darin besteht, das Training zu beschleunigen, indem eine Charge ausgewählt und das Gewicht nahe 0 verteilt wird, nicht zu groß, nicht zu klein.
Wählen Sie es
Für mich ist Mini-Batch ein Muss, da es den Prozess beschleunigen und die Leistung des Netzwerks jedes Mal verbessern kann.
L1 und L2 sind beide ähnlich und ich würde L1 in kleinen Netzwerken bevorzugen.
Im Idealfall sollte ein Ausfall auftreten, wenn ein großes Variationsproblem oder eine Überanpassung vorliegt.
Last but not least stimme ich Neil Slater zu, dass es von der Situation abhängt und es niemals eine optimale Lösung geben wird.
Ich empfehle Ihnen, dies für weitere Informationen zu lesen. Dies ist ein sehr gutes Material. http://neuralnetworksanddeeplearning.com/chap3.html