24小时热门版块排行榜    

查看: 2803  |  回复: 2

赵红霞

铁杆木虫 (著名写手)

[求助] 主成分分析(PCA)降维问题 已有2人参与

我用支持向量机做非线性回归模型,由于样本数量少而参量较多,于是用主成分分析(PCA)进行降维,其程序语言已在下面给出,现请教高手,如果最初的18维数据最后降为3维,能知道最终的3维是哪3维吗?也就是说,我能知道最初的18维数据里面那些参量比较重要吗?

[m,n] = size(ds);
train = ds(trainRow, 1:n-1);
test = ds(testRow, 1:n-1);
[pc,score,latent,tsquare] = princomp(train);    %调用pca分析函数

tranMatrix = pc(:,1:5);                     %变换矩阵
trainData = [train * tranMatrix ds(trainRow, n)];
testData = [test * tranMatrix ds(testRow, n)];
save pcadata pc score latent tsquare tranMatrix trainData testData
回复此楼

» 猜你喜欢

» 本主题相关价值贴推荐,对您同样有帮助:

已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

phujie

至尊木虫 (知名作家)

【答案】应助回帖

★ ★ ★ ★ ★ ★ ★ ★ ★ ★
感谢参与,应助指数 +1
赵红霞: 金币+10, ★★★很有帮助, 十分感谢 2014-01-21 09:03:03
找latent中最大的3个值对应的 pc,这3个pc是相应的向量,相应的score就是投影在pc上的坐标

一般前面的latent值之和越大越好,(这个看你的应用),如果太小的话,你可以取4个
2楼2014-01-20 14:38:51
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

戴钢盔的猪头

木虫 (知名作家)

【答案】应助回帖

★ ★ ★ ★ ★
感谢参与,应助指数 +1
赵红霞: 金币+5, 有帮助, 我不懂怎么弄,不过还是谢谢你 2014-01-21 09:03:31
2楼正解,还有个常用方法:对矩阵做奇异值分解,因为奇异值是按从大到小排列的,故V矩阵前几项自然是主载荷。成分数学可以大致通过奇异值的拐点判断。

[ 发自手机版 http://muchong.com/3g ]
3楼2014-01-20 17:02:22
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖
相关版块跳转 我要订阅楼主 Andsharia 的主题更新
信息提示
请填处理意见