| 查看: 527 | 回复: 6 | |||
[交流]
急急急,MATLAB神经网络归一化问题,求各位大神进来瞅瞅,谢谢啦
|
|
1、这个是我的训练网络。 >> clear all; p=[0 1 0.5;0 2 1;0 3 1.5;0.4 1 1;0.4 2 1.5;0.4 3 0.5;0.8 1 1.5]'; [p,PS]=mapminmax(p,0,1) t=[0.317;0.511;0.751;0.378;0.658;0.311;0.64]'; [t,PS]=mapminmax(t,0,1) net3d=newff([0 1;0 1;0 1],[8,1],{'tansig' 'logsig'},'traingd'); net3d.trainParam.epochs=70000; net3d.trainParam.goal=0.001; LP.lr=0.1; net3d=train(net3d,p,t); test=p; y=sim(net3d,test); temp=(y-t); b=max(abs(temp( : ))); Y1_again=mapminmax('reverse',y,PS) t_again=mapminmax('reverse',t,PS) 2、这个是训练完的结果。 Y1_again = 1 至 5 列 0.324662613198826 0.504035674864077 0.730938844377799 0.386099790046901 0.676597523737946 6 至 7 列 0.330010329656243 0.631476509214703 t_again = 1 至 5 列 0.317 0.511 0.751 0.378 0.658 6 至 7 列 0.311 0.64 (总体来说达到了训练效果,然后开始预测,我带入的就是原始的训练数据先进行检测) 3、这个是我的预测数据的程序 p=[0 1 0.5;0 2 1;0 3 1.5;0.4 1 1;0.4 2 1.5;0.4 3 0.5;0.8 1 1.5]'; [p,PS]=mapminmax(p,0,1) test=p; y=sim(net3d,test) Y2_again=mapminmax('reverse',y,PS) 4、这个是预测完的结果。 y = 1 至 5 列 0.0310513936336945 0.438717442872902 0.954406464494999 0.170681341015685 0.830903463040787 6 至 7 列 0.0432052946732806 0.72835570276069 Y2_again = 1 至 5 列 0.0248411149069556 0.350973954298322 0.763525171595999 0.136545072812548 0.66472277043263 1.06210278726739 1.8774348857458 2.90881292899 1.34136268203137 2.66180692608157 0.531051393633694 0.938717442872902 1.454406464495 0.670681341015685 1.33090346304079 6 至 7 列 0.0345642357386245 0.582684562208552 1.08641058934656 2.45671140552138 0.543205294673281 1.22835570276069 5、分析,预测完的数据完全不对,训练的时候也进行了归一化与反归一化,出现的结果是正确的,但是预测的时候再进行归一化与反归一化结果却很离谱,而且出现了三行数据,看不懂是什么意思,求大神解决,谢谢啦。 发自小木虫Android客户端 [ Last edited by jjdg on 2017-7-31 at 12:35 ] |
» 猜你喜欢
有没有人能给点建议
已经有5人回复
假如你的研究生提出不合理要求
已经有12人回复
实验室接单子
已经有7人回复
全日制(定向)博士
已经有5人回复
萌生出自己或许不适合搞科研的想法,现在跑or等等看?
已经有4人回复
Materials Today Chemistry审稿周期
已经有4人回复
参与限项
已经有3人回复
对氯苯硼酸纯化
已经有3人回复
所感
已经有4人回复
要不要辞职读博?
已经有7人回复
| ] |
2楼2017-07-31 09:25:23
3楼2017-07-31 09:26:44
4楼2017-07-31 09:26:56
5楼2017-07-31 09:27:04
6楼2017-07-31 09:27:10
7楼2017-07-31 09:27:53












回复此楼