Aktivierungsfunktionen werden verwendet, um Nichtlinearitäten in den linearen Ausgang des Typs w * x + bin einem neuronalen Netzwerk einzuführen . Was ich für die Aktivierungsfunktionen wie Sigmoid intuitiv verstehen kann. Ich verstehe die Vorteile von ReLU, bei dem tote Neuronen während der...