Ein Außenseiter des ML / DL-Bereichs; hat den Udacity Deep Learning Kurs begonnen, der auf Tensorflow basiert; Aufgabe 3 erledigen Aufgabe 4; versuchen, die Lernrate mit der folgenden Konfiguration zu optimieren:
- Losgröße 128
- Anzahl der Schritte: genug, um 2 Epochen zu füllen
- Größen der versteckten Schichten: 1024, 305, 75
- Gewichtsinitialisierung: Normal mit Standard abgeschnitten. Abweichung von sqrt (2 / n) wobei n die Größe der vorherigen Ebene ist
- Ausfallwahrscheinlichkeit: 0,75
- Regularisierung: nicht angewendet
- Lernratenalgorithmus: exponentieller Abfall
mit Lernratenparametern herumgespielt; In den meisten Fällen scheinen sie keine Wirkung zu haben. Code hier ; Ergebnisse:
Accuracy learning_rate decay_steps decay_rate staircase
93.7 .1 3000 .96 True
94.0 .3 3000 .86 False
94.0 .3 3000 .96 False
94.0 .3 3000 .96 True
94.0 .5 3000 .96 True
- Wie soll ich die Lernrate systematisch einstellen?
- Wie hängt die Lernrate mit der Anzahl der Schritte zusammen?