1
Втрата різко стрибає, коли я знижую рівень навчання за допомогою оптимізатора Адама в PyTorch
Я треную auto-encoderмережу з Adamоптимізатором (з amsgrad=True) таMSE loss завданням розділення одноканального аудіо джерела. Кожного разу, коли я знижую коефіцієнт навчання на коефіцієнт, втрати мережі різко стрибають, а потім зменшуються до наступного занепаду швидкості навчання. Я використовую Pytorch для реалізації мережі та навчання. Following are my experimental setups: Setup-1: NO …