| 查看: 1789 | 回复: 4 | ||
| 本帖产生 1 个 博学EPI ,点击这里进行查看 | ||
lianghaijian金虫 (初入文坛)
|
[求助]
多元线性回归相关问题
|
|
|
我论文是应用最小二乘法以及BP神经网络方法去预测流感人数的,然后审稿人给我提出了下边的意见:(如附图) 我想问:最小二乘法实现多元线性回归以及BP神经网络实现回归时需要考虑数据的非平稳性、自相关性、非正态性吗?我想知道理由哦,要具体理由,以及如何检验这些特性。请看附上的图片哦,那是专家的审稿意见,我理解的应该没有问题吧,大家帮帮忙。 111.png |
» 猜你喜欢
带资进组求博导收留
已经有9人回复
求助大佬们,伤口沾上了乙腈
已经有6人回复
26申博自荐
已经有6人回复
最近几年招的学生写论文不引自己组发的文章
已经有9人回复
A期刊撤稿
已经有4人回复
【答案】应助回帖
★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ...
lianghaijian: 金币+200, 博学EPI+1, ★有帮助 2017-03-02 08:41:45
lianghaijian: 金币+200, 博学EPI+1, ★有帮助 2017-03-02 08:41:45
|
其实评审意见的最后一句已经说明了,你的新技术需要检验这些特性,使最终的算法符合演算结果,最简单的就是对比实验了。 与传统的预测流感人数地方法、单一BP神经网络算法进行对比,可以选用历年流感人群统计数据作为模型,在未爆发前提供的参数计算结果与最终实际情况进行比对,来说明你的这种结合方法才是目前最佳和适宜的...或者避免减小了当前算法的一些弊端,更加准确和稳定。 我不懂你的研究,这只是我的一些想法,希望多少有些帮助吧 |

2楼2017-02-28 16:59:49
【答案】应助回帖
|
首先BP神经网络具有以下优点: 1) 非线性映射能力:BP神经网络实质上实现了一个从输入到输出的映射功能,数学理论证明三层的神经网络就 能够以任意精度逼近任何非线性连续函数。这使得其特别适合于求解内部机制复杂的问题,即BP神经网络具有 较强的非线性映射能力。 2) 自学习和自适应能力:BP神经网络在训练时,能够通过学习自动提取输出、输出数据间的“合理规则”,并 自适应的将学习内容记忆于网络的权值中。即BP神经网络具有高度自学习和自适应的能力。 3) 泛化能力:所谓泛化能力是指在设计模式分类器时,即要考虑网络在保证对所需分类对象进行正确分类,还 要关心网络在经过训练后,能否对未见过的模式或有噪声污染的模式,进行正确的分类。也即BP神经网络具有 将学习成果应用于新知识的能力。 4) 容错能力:BP神经网络在其局部的或者部分的神经元受到破坏后对全局的训练结果不会造成很大的影响,也 就是说即使系统在受到局部损伤时还是可以正常工作的。即BP神经网络具有一定的容错能力。 鉴于BP神经网络的这些优点,国内外不少研究学者都对其进行了研究,并运用网络解决了不少应用问题。但是 随着应用范围的逐步扩大,BP神经网络也暴露出了越来越多的缺点和不足,比如: 1) 局部极小化问题:从数学角度看,传统的 BP神经网络为一种局部搜索的优化方法,它要解决的是一个复杂 非线性化问题,网络的权值是通过沿局部改善的方向逐渐进行调整的,这样会使算法陷入局部极值,权值收敛 到局部极小点,从而导致网络训练失败。加上BP神经网络对初始网络权重非常敏感,以不同的权重初始化网络 ,其往往会收敛于不同的局部极小,这也是很多学者每次训练得到不同结果的根本原因。 2) BP 神经网络算法的收敛速度慢:由于BP神经网络算法本质上为梯度下降法,它所要优化的目标函数是非常 复杂的,因此,必然会出现“锯齿形现象”,这使得BP算法低效;又由于优化的目标函数很复杂,它必然会在 神经元输出接近0或1的情况下,出现一些平坦区,在这些区域内,权值误差改变很小,使训练过程几乎停顿; BP神经网络模型中,为了使网络执行BP算法,不能使用传统的一维搜索法求每次迭代的步长,而必须把步长的 更新规则预先赋予网络,这种方法也会引起算法低效。以上种种,导致了BP神经网络算法收敛速度慢的现象。 3) BP 神经网络结构选择不一:BP神经网络结构的选择至今尚无一种统一而完整的理论指导,一般只能由经验 选定。网络结构选择过大,训练中效率不高,可能出现过拟合现象,造成网络性能低,容错性下降,若选择过 小,则又会造成网络可能不收敛。而网络的结构直接影响网络的逼近能力及推广性质。因此,应用中如何选择 合适的网络结构是一个重要的问题。 4) 应用实例与网络规模的矛盾问题:BP神经网络难以解决应用问题的实例规模和网络规模间的矛盾问题,其涉 及到网络容量的可能性与可行性的关系问题,即学习复杂性问题。 5)BP神经网络预测能力和训练能力的矛盾问题:预测能力也称泛化能力或者推广能力,而训练能力也称逼近能 力或者学习能力。一般情况下,训练能力差时,预测能力也差,并且一定程度上,随着训练能力地提高,预测 能力会得到提高。但这种趋势不是固定的,有一个极限,当达到此极限时,随着训练能力的提高,预测能力反 而会下降,也即出现所谓“过拟合”现象。出现该现象的原因是网络学习了过多的样本细节导致,习出的模型 已不能反映样本内含的规律,所以如何把握好学习的度,解决网络预测能力和训练能力间矛盾问题也是BP神经 网络的重要研究内容。 6)BP神经网络样本依赖性问题:网络模型的逼近和推广能力与学习样本的典型性密切相关,而从问题中选取典 型样本实例组成训练集是一个很困难的问题。 |

3楼2017-02-28 17:00:28
lianghaijian
金虫 (初入文坛)
- 应助: 0 (幼儿园)
- 金币: 548.6
- 帖子: 39
- 在线: 49.6小时
- 虫号: 3563467
- 注册: 2014-11-27
- 专业: 光学信息获取与处理
4楼2017-03-01 20:58:02
【答案】应助回帖
|
可不可以将几年的测试数据与真实情况进行残差分析,离散型分析,理论上来说如果你的模型计算结果和真实情况应该无显著性差异,离散程度小于传统模型,说明你的模型更为有效,这就是稳定性验证了... 自相关性检验: http://baike.baidu.com/link?url= ... BqAGBk1qiaYuYLPt0bx 如何用spss进行非正态性数据的检验 https://zhidao.baidu.com/question/1756610110714359508.html 或借助Matalab的神经网络工具进行模型验证,具体的操作你找专业的人员进行参考或咨询... |

5楼2017-03-02 14:01:40













回复此楼