Adaboost方法究竟是如何选择训练样本?
知道在Adaboost方法中,随着弱学习机个数的增加,训练样本的权重在不断调整。这里有个疑惑,好多文献都提到在新一轮训练中,训练样本的选择根据权重来选,我的理解是权重大的样本选择的机率就就大(有点类似轮盘赌),使得训练样本中出现较多“困难”样本。但在下载的好多代码中,好像训练样本的选择和样本权重没有关系,始终是那个训练集,样本权重的变化仅仅用在计算弱学习机的权重上。这是为什么?还是我的理解有偏差? 返回小木虫查看更多
今日热帖
知道在Adaboost方法中,随着弱学习机个数的增加,训练样本的权重在不断调整。这里有个疑惑,好多文献都提到在新一轮训练中,训练样本的选择根据权重来选,我的理解是权重大的样本选择的机率就就大(有点类似轮盘赌),使得训练样本中出现较多“困难”样本。但在下载的好多代码中,好像训练样本的选择和样本权重没有关系,始终是那个训练集,样本权重的变化仅仅用在计算弱学习机的权重上。这是为什么?还是我的理解有偏差? 返回小木虫查看更多
同样不理解这个方法
帮顶
谢谢帮顶
,
神经网络不会呀,你看看是否属于比如说十字交叉法之类的东西
懂了!Boosting by weighting & Boosting by resampling.