2
Warum wird ReLU als Aktivierungsfunktion verwendet?
Aktivierungsfunktionen werden verwendet, um Nichtlinearitäten in den linearen Ausgang des Typs w * x + bin einem neuronalen Netzwerk einzuführen . Was ich für die Aktivierungsfunktionen wie Sigmoid intuitiv verstehen kann. Ich verstehe die Vorteile von ReLU, bei dem tote Neuronen während der Rückübertragung vermieden werden. Ich kann jedoch nicht …