BP神经网络在训练过程中,损失函数可能比较大,但随着训练的进行,损失函数基本不变化了,这种现象说明神经网络陷入全局最优解
BP神经网络在训练过程中,损失函数可能比较大,但随着训练的进行,损失函数基本不变化了,这种现象说明神经网络陷入全局最优解
参考答案和解析
局部极小值 或者 局部极小 或者 局部最优解
相关考题:
用分枝定界法求最大值的整数规划时()。 A、分枝后子问题的最优目标函数值可能变大B、分枝后子问题的最优目标函数值可能不变C、若某个分枝的最优目标函数值大于其它分支,则该分支得到了最优解D、以上说法均不对
对于神经网络的说法,下面正确的是:( ) A增加神经网络层数,可能会增加测试数据集的分类错误率B减少神经网络层数,总是能减小测试数据集的分类错误率C增加神经网络层数,总是能减小训练数据集的分类错误率
对于一个分类任务,如果开始时神经网络的权重不是随机赋值的,二是都设成0,下面哪个叙述是正确的?( ) A.其他选项都不对B.没啥问题,神经网络会正常开始训练C.神经网络可以训练,但是所有的神经元最后都会变成识别同样的东西D.神经网络不会开始训练,因为没有梯度改变
单选题连续型Hopfield网络()。A是前馈神经网络B是单层反馈型非线性神经网络C具有函数逼近问题D是多层反馈型非线性神经网络