Wie verwendet man LeakyRelu als Aktivierungsfunktion in der Sequenz DNN in Keras? Wenn ich etwas Ähnliches schreiben möchte wie:
model = Sequential()
model.add(Dense(90, activation='LeakyRelu'))
Was ist die Lösung? Setzen Sie LeakyRelu ähnlich wie Relu?
Die zweite Frage lautet: Was ist die beste allgemeine Einstellung zum Einstellen der Parameter von LeakyRelu? Wann ist die Leistung deutlich besser als bei Relu?