24小时热门版块排行榜    

CyRhmU.jpeg
查看: 1002  |  回复: 14
当前主题已经存档。
当前只显示满足指定条件的回帖,点击这里查看本话题的所有回帖

yujunhui

银虫 (著名写手)

[交流] 【讨论】遗传算法优化神经网络误差问题?

遗传算法优化神经网络误差 的 误差 与  神经网络的误差  很接近(甚至有的比神经网络的误差大 )
这是什么原因?
请高手指点?
回复此楼
安静
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

yujunhui

银虫 (著名写手)

引用回帖:
Originally posted by nono2009 at 2009-11-7 15:12:
才迭代了20次?一般问题迭代20次好像很少的说。

大部分算法动因子, 学习速率都是自适应的。楼主是用matlab neural network toolbox做得吗?

不是的!
朋友有人帮助,然后帮我编程做的!
安静
12楼2009-11-07 15:27:44
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖
查看全部 15 个回答

nono2009

超级版主 (文学泰斗)

No gains, no pains.

优秀区长优秀区长优秀区长优秀区长优秀版主

★ ★ ★
yujunhui(金币+2,VIP+0):有道理,谢谢你 ! 11-4 14:36
kuhailangyu(金币+1,VIP+0):nono辛苦了,呵呵 11-4 18:56
遗传算法优化神经网络只是在概率上有更大可能获得全局最优,这种获得全局最优的概率与初始种群数、交叉变异操作、遗传代数等等都有关系。所以,从另一方面讲,在概率上,遗传算法也可能得不到全局最优解、或得到的是近似最优解。

如果神经网络结构比较简单的话,我的经验是matlab NN toolbox的某些算法给出的训练误差可能更好。在取随机初值的情况下,反复多run上N次,获得全局最优的概率也是不小的。
2楼2009-11-04 12:18:20
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

yujunhui

银虫 (著名写手)

还有其他的原因吗 ?
安静
3楼2009-11-04 22:52:22
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

728728

木虫 (正式写手)

★ ★
nono2009(金币+1,VIP+0):谢谢交流!欢迎常来。 11-5 06:31
yujunhui(金币+1,VIP+0):谢谢! 11-5 08:49
描述的不太清楚。
不知道你优化的目标函数是什么?你说的误差指训练误差还是泛化误差?
如果你优化目标是训练误差的话,那优化后泛化误差变大是很可能的事。
这时候必然是过学习了,高频误差的影响显著。
4楼2009-11-05 03:05:26
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖
普通表情 高级回复(可上传附件)
信息提示
请填处理意见