Der Verlust springt abrupt, wenn ich die Lernrate mit dem Adam-Optimierer in PyTorch reduziere
Ich trainiere ein auto-encoderNetzwerk mit AdamOptimierer (mit amsgrad=True) und MSE lossfür die Aufgabe der Einkanal-Audioquellentrennung. Immer wenn ich die Lernrate um einen Faktor verringere, springt der Netzwerkverlust abrupt und nimmt dann bis zum nächsten Abfall der Lernrate ab. Ich verwende...