24小时热门版块排行榜    

CyRhmU.jpeg
查看: 1460  |  回复: 5

xmcrobbie

银虫 (小有名气)

[求助] libsvm的参数困惑!已有2人参与

在做测试的时候,对参数进行grid搜索

[bestacc,bestc,bestg] = SVMcgForClass(trainlabels,trainsample,-10,10,-10,10);

cmd = ['-c ',num2str(bestc),' -g ',num2str(bestg)];
disp(cmd);

model = svmtrain(trainlabels, trainsample, cmd);
[predict_label, accuracy] = svmpredict(testlabels,testsample, model);


我观察了一下发现,这时bestc是等于16,bestg等于0.5.
很显然这个参数是根据trainsample训练出来的。svmpredict的精度是98.7。

然后,我修改了代码,没有调用 SVMcgForClass

直接手动指定
bestc=512,bestg=0.015625
cmd = ['-c 512 -g 0.015625' ];
model = svmtrain(trainlabels, trainsample, cmd);
[predict_label, accuracy] = svmpredict(testlabels,testsample, model);

svmpredict的精度更高,精度是98.95%。。
哪个结果更准确????
回复此楼
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

itissogood

新虫 (初入文坛)

【答案】应助回帖

感谢参与,应助指数 +1
我不知道我说的对不对啊。我的意见供你参考。
据我所知,libsvm里是用训练集,进行交叉检验,从而搜索最优的c和g。也就说,所得的两个参数也是基于训练集的。
根据机器学习的一般性规律,这些对训练集是最优的参数,对预测集未必是最优。
所以可能你自己手工指定的参数的预测结果可能会更好。
2楼2014-03-10 10:54:29
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

xmcrobbie

银虫 (小有名气)

引用回帖:
2楼: Originally posted by itissogood at 2014-03-10 10:54:29
我不知道我说的对不对啊。我的意见供你参考。
据我所知,libsvm里是用训练集,进行交叉检验,从而搜索最优的c和g。也就说,所得的两个参数也是基于训练集的。
根据机器学习的一般性规律,这些对训练集是最优的参数 ...

是的,我的看法也是如此,我跟踪了程序,的确是这样。一般采用哪种做法呢?第一种还是第二种呢?

[ 发自小木虫客户端 ]
3楼2014-03-10 14:02:08
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

HRL_RS

金虫 (小有名气)

【答案】应助回帖

感谢参与,应助指数 +1
一楼正解。你可以对训练集进行一次分类,第一次参数训练的模型准确率应该会高于第二个参数训练的模型。
4楼2014-03-11 11:52:45
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

勤奋的小蚂蚁

新虫 (初入文坛)

当然是后者,SVMcgForClass这个算法中c,g的范围设的太小了,所有精度没有后者高
5楼2014-08-19 16:10:28
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

乐悠可豆

金虫 (小有名气)

引用回帖:
5楼: Originally posted by 勤奋的小蚂蚁 at 2014-08-19 16:10:28
当然是后者,SVMcgForClass这个算法中c,g的范围设的太小了,所有精度没有后者高

后者是指定的,随机性太强,除非知道指定的c和g对应的准确率高,不然很难找到相应的c和g。C值过大时容易发生拟合结果盒实际结果相差很大,不知有没有差选取的c和g的取值范围呀?(谢谢了)
6楼2015-08-19 15:43:08
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖
相关版块跳转 我要订阅楼主 xmcrobbie 的主题更新
信息提示
请填处理意见