Was ist die Ableitung der ReLU-Aktivierungsfunktion?

15

Wie lautet die Ableitung der ReLU-Aktivierungsfunktion, die wie folgt definiert ist:

ReLU(x)=max(0,x)

Was ist mit dem Sonderfall, in dem die Funktion bei eine Diskontinuität aufweist ?x=0

Tom Hale
quelle

Antworten:

17

Die Ableitung ist:

f(x)={0wenn x<01wenn x>0

Undefiniert in .x=0

Der Grund dafür, dass es bei undefiniert ist, ist, dass seine linke und rechte Ableitung nicht gleich sind.x=0

Jim
quelle
1
In der Praxis (Implementierung) wählt man also einfach entweder oder für den Fall ? 01x=0
Tom Hale
2
Die Konvention ist, dass drdx = 1 (x> 0)
neuroguy123
@TomHale, warum nicht ? Die praktische Umsetzung ist eine andere Sache und eine neue Frage wert. Das ist nur die Mathematik. f(0)=12
Jim
3
@TomHale übrigens, siehe Nouroz Rahmans Antwort unter quora.com/… : "[...] Meiner Ansicht nach wird in integrierten Bibliotheksfunktionen (zum Beispiel tf.nn.relu()
Jim