模型不收敛的原因

 我来答
天罗网17
2022-06-26 · TA获得超过6186个赞
知道小有建树答主
回答量:306
采纳率:100%
帮助的人:72.9万
展开全部
1、反向传播链断裂

即其中有部分的变量可能被转换为 numpy 数组,虽然仍然能够参与计算,但却失去了梯度传播的能力,导致无法向后面的变量传播梯度

2、学习率设置不合理

如果学习率设置得太大,则容易造成 loss 变成 nan,导致模型不收敛,设置得太小,则会导致模型学习得很慢

3、神经网络层参数没有进行好的参数初始化

因为参数初始化会影响到模型的训练速度

4、神经网络层参数没有进行梯度裁剪

没有进行梯度裁剪的话可能会导致梯度爆炸,从而使得模型无法将有效的梯度反向传播

5、训练次数不足

模型要经过足够多的学习之后,才能够学习到好的特征,过早地暂停模型的训练,会导致模型并没有学习到好的特征

6、训练批次中的样本数量太少,导致 loss 值存在波动,从而造成模型不收敛的错觉
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式