什么事神经网络或者微粒群算法所说的陷入 局部极小值?
- 你的回答被采纳后将获得:
- 系统奖励15(财富值+成长值)+难题奖励30(财富值+成长值)
1个回答
展开全部
就是误差曲面局部凹陷点。学过函数曲线的极小值和最小值的概念吧,局部最佳和全局最佳是类似的关系。
一般训练陷入停滞主要是两方面的原因:
陷入误差曲面凹陷点。
神经网络的激活函数是S函数,这个函数的两端是平坦的,算法在这里面走的很慢。
事实上只要是随机搜索的算法,都会出现这种情况,只是可能性的大小不同罢了。可以使用全局寻优能力强的先行搜索,再用局部搜索能力强的算法继续搜索。
本回答被提问者和网友采纳
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询