Dali杂货铺🐰15——loss不能正常下降 or 下降到一定程度便不下降了

"loss problems"

Posted by fuhao7i on April 2, 2021

1. 分析:如何解决神经网络训练时loss不下降的问题

1. 学习率没有灵魂

学习率是个神奇的东西, 你是不是也对learning rate的选取而苦恼过, 总是感觉一成不变的学习率缺少灵魂:

  • 太小? loss降低的太慢💦
  • 太大? loss可能达不到最优, 而可能在最优值范围震动

解决: torch.optim.lr_scheduler 学习率下降机制

How to adjust learning rate

2. 学习率为0

学习率为0,网络的参数不再更新,故损失也不会再下降,因此我们可以看一下是不是错用了学习率下降方法导致学习率为0.

3. 优化器设置

看看我们的模型参数是不是正常载入到优化器中了。也就是看一下优化器的设置有没有出错。

引用.

  1. 使用Pytorch实现学习率衰减/降低(learning rate decay)
  2. torch.optim.lr_scheduler:调整学习率