Wie verwendet man LeakyRelu als Aktivierungsfunktion in der Sequenz DNN in Keras? Wenn ich etwas Ähnliches schreiben möchte wie: model = Sequential() model.add(Dense(90, activation='LeakyRelu')) Was ist die Lösung? Setzen Sie LeakyRelu ähnlich wie Relu? Die zweite Frage lautet: Was ist die beste...