Der Begriff "aktiviert" wird meistens verwendet, wenn es sich um Aktivierungsfunktionen handelt, die nur dann einen Wert (außer 0) ausgeben, wenn die Eingabe für die Aktivierungsfunktion einen bestimmten Schwellenwert überschreitet.
Insbesondere bei der Diskussion von ReLU kann der Begriff "aktiviert" verwendet werden. ReLU wird "aktiviert", wenn der Ausgang größer als 0 ist. Dies gilt auch, wenn der Eingang größer als 0 ist.
Andere Aktivierungsfunktionen wie Sigmoid geben immer einen Wert größer als 0 zurück und haben keine spezielle Schwelle. Daher ist der Begriff "aktiviert" hier weniger bedeutsam.
Obwohl wir wenig über sie wissen, scheinen die Neuronen im Gehirn auch etwas zu haben, das einer Aktivierungsfunktion mit einer Art "Aktivierungsschwelle" ähnelt.