神经网络模型(neural network model)的“数据规模”的选择?
在建立神经网络模型时,充足的数据是一个必要条件。
但是,究竟多少足够呢?是不是越多越好呢?
例如,这里有一个具体问题:
F=F(x,y,z),其中x,y,z是函数F的自变量;
现有的x,y和z的数据表规模:100×100×100,即一百万组数据,每个变量是一个维度为100的数组,排列组合,总数一百万;
Problem:那么利用neural network model方法建立模型时,这些数据是不是过多了?如果不多,是不是训练(training)耗费的时间会非常长?
个人搜到张春路老师发表过很多热力部件(换热器、压缩机和毛细管等)及制冷系统的神经网络模型方面的文章。
例如,Model-based dimensionless neural networks for fin-and-tube condenser performance evaluation(可以在此看到:http://www.docin.com/p-1359517750.html)。好像里面用于训练换热器性能预测的数据规模并不是很大,但预测的精度效果很理想!
@nono2009,如果您看到了这个帖子,真心希望您能点拨一下,先谢过您了! 返回小木虫查看更多
今日热帖
F=F(x,y,z),其中x,y,z是函数F的自变量;
现有的x,y和z的数据表规模:100×100×100,即一百万个数据?
这只能说是100组数据或者100个训练样本。
这个问题在李则宇的博士论文中有详细的阐述。
好的,非常感谢您!
其实并不需要训练这么多组数据。
我只是想了解一下,针对普通的计算机,如笔记本,神经网络对训练样本数量的一个大体的上限
,
这些数据可以采用实验设计方法降低为几百组数据用于学习,其他的都用于检验。