![](https://iknow-base.cdn.bcebos.com/lxb/notice.png)
BP神经网络训练生成的图片解释,急求。
用论坛里的程序输出的神经网络的图片,请大家帮忙看一下。急求解释。这张是用BP神经网络进行训练的时候生成的,因为是从网上拿的程序所以不太看的明白,想问下,performan...
用论坛里的程序输出的神经网络的图片,请大家帮忙看一下。急求解释。这张是用BP神经网络进行训练的时候生成的,因为是从网上拿的程序所以不太看的明白,想问下,performance栏的2.50,1.17e-14,1.00e-28;gradient栏的还有mu栏的,分别代表什么意思呢,能否解释一下。还有,这两张图片上都是什么意思呢,能给解释一下吗,非常感谢。
展开
4个回答
展开全部
那这张呢,到了最大迭代次数了,可是还是收敛不到指定的精度。出现的情况就是像图上一样,均方误差达到0.00128左右的时候就无法继续下去了,误差梯度总是反复,先下降,一会又缩回去了。即使我把迭代次数设置到10000次均方误差也就稳定在0.00128左右了,主要是误差梯度总是不停的反复,这是为什么呢?是收敛失败吗?
2013-08-16
展开全部
可是误差梯度为什么总是反反复复不能快速下降呢?比如误差梯度本来已经下降到1.0e-5了,然后又很快退回到0.001,总是这么反复,然后就达到设定的最大迭代次数了,这说明什么呢?是模型设计的问题还是数据出问题呢?这是不是收敛失败?非常感谢。
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
2013-08-16
展开全部
这个要看你的目的 比如 非常精密的要求下 那就设置的很小 你说的情况可能都有问题 要分析!!
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
2013-08-16
展开全部
非常感谢,呵呵。那么1.17e-14就是MSE均方误差吗?那么gradient=9.0069e-11怎么解释呢,是误差下降梯度?
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询