Was ist die Ableitung der ReLU-Aktivierungsfunktion?


15

Wie lautet die Ableitung der ReLU-Aktivierungsfunktion, die wie folgt definiert ist:

ReLU(x)=max(0,x)

Was ist mit dem Sonderfall, in dem die Funktion bei eine Diskontinuität aufweist ?x=0

Antworten:


17

Die Ableitung ist:

f(x)={0wenn x<01wenn x>0

Undefiniert in .x=0

Der Grund dafür, dass es bei undefiniert ist, ist, dass seine linke und rechte Ableitung nicht gleich sind.x=0


1
In der Praxis (Implementierung) wählt man also einfach entweder oder für den Fall ? 01x=0
Tom Hale

2
Die Konvention ist, dass drdx = 1 (x> 0)
neuroguy123

@TomHale, warum nicht ? Die praktische Umsetzung ist eine andere Sache und eine neue Frage wert. Das ist nur die Mathematik. f(0)=12
Jim

3
@TomHale übrigens, siehe Nouroz Rahmans Antwort unter quora.com/… : "[...] Meiner Ansicht nach wird in integrierten Bibliotheksfunktionen (zum Beispiel tf.nn.relu()
Jim
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.