24小时热门版块排行榜    

CyRhmU.jpeg
查看: 2068  |  回复: 18

mygt_hit

专家顾问 (职业作家)

【答案】应助回帖

★ ★ ★ ★ ★
tjuxh: 金币+5, ★★★很有帮助 2016-01-11 09:41:47
引用回帖:
3楼: Originally posted by tjuxh at 2015-12-02 23:17:47
你好,非常感谢你的回答!我看了一些相关的例子,确实是按照您所说的这样进行分解。目前的情况是,我可以提取出随时间变化的一系列随机向量,然后据此可以得出一个协方差矩阵,但是我不知道如何通过此矩阵求出一组 ...

最近又有了一些新收获,跟楼主交流一下。
KL、POD、PCA思想都是一样的,最根本的应该是KL,离散化之后就是PCA(主成分分析)。和对称方阵的特征值分解以及一般矩阵的SVD(奇异值分解)关系非常密切。
1. 首先以对称方阵的特征值分解为例来说明。(特征值按从大到小排列。由于对称阵的不同特征值的特征向量正交,故可将特征向量矩阵S标准正交化。)



a) 基变换角度。
AX的变换效果从几何上可理解为将X旋转(S'作用)——拉伸(作用)——旋转回来(S作用)。因此,S中的每一个列向量可以理解为原始变量空间(实际上为A的行空间)的基通过旋转(因为S为正交阵)所得的一组新基。第一个基s1上包含的信息最多(特征值最大),之后的依次减少。所以任给一个d维列向量X,可通过在矩阵S代表的基上投影,依次提取其第一大分量、第二大分量、……直到第d大分量。根据实际需要,选择前若干个就可以充分表达X所包含的信息了,如果选择全部d个分量,那就是完全无损表示了。数据压缩、图像处理、数据降维等都是这样的原理,提取前几个较大的分量就可以以较小的损失表示原来的信息。
具体来说,可以定义新的列向量:


即Y的每一个分量都是X分量的线性组合,或者理解为将X沿着特征向量展开。选择前r个较大特征值对应的Y分量,就可以将原始的d维向量X降为r维向量Y。(注:A的特征向量又称作主成分,主成分分析PCA大概就是这个意思,提取最主要的那几个成分。)

b) 也可以从对称矩阵的谱分解角度理解

即对称矩阵可表达为d个秩1矩阵之和,每个秩一矩阵的权重为相应特征值。数据压缩就是选择前少数几个较大特征值对应的秩一矩阵来表示原矩阵A,即


2. SVD角度。
假设数据有d个特征或属性,例如d维变量X。假设观测N次,得N个样本,用N×d矩阵A表示,将A进行SVD分解

V中所含的A的右奇异向量就是原始数据的主成分,根据奇异值大小排列,也称作第一主成分、第二主成分、……第d主成分。之所以这么叫,是因为A的右奇异向量实际上是A’A的特征向量

而A’A又可看作d维变量X的协方差矩阵cov(X, X)。如果X均值不为0,可通过平移得到新的零均值变量。令 R = cov(X, X) ,则有

这里的矩阵V相当于第1节中的矩阵S。前r个特征向量表示对X方差贡献最大的r个基,即前r个主成分。类似的,可以定义新向量Y = V'X,提取主成分,压缩数据等等。

3. 小结
1) 将观测矩阵A进行处理,比如平移使得其变为零均值、标准化处理等;
2) 对A'A进行特征值对角分解;
3) 定义新向量:Y=V'X。根据处理能力及实际需要,选择前若干个较显著的Y分量。

4. 参考资料
浅谈对主成分分析(PCA)算法的理解 http://blog.csdn.net/passball/article/details/24037593
机器学习中的数学(4)-线性判别分析(LDA), 主成分分析(PCA) http://www.cnblogs.com/LeftNotEa ... chine-learning.html
机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用 http://www.cnblogs.com/LeftNotEa ... d-applications.html
知其然,知其所以然。
11楼2016-01-09 14:29:52
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

tjuxh

金虫 (小有名气)

引用回帖:
10楼: Originally posted by 拜星漫月 at 2016-01-09 12:33:36
楼主可以把你的pod资料发给我看看吗?谢谢啦啊。我也想学一下。

参照五楼给的资料,写的很全面,matlab也有pca分析的工具,可以自己看看,具体公式是princomp()
一切皆缘分
12楼2016-01-11 09:03:55
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

tjuxh

金虫 (小有名气)

引用回帖:
11楼: Originally posted by mygt_hit at 2016-01-09 14:29:52
最近又有了一些新收获,跟楼主交流一下。
KL、POD、PCA思想都是一样的,最根本的应该是KL,离散化之后就是PCA(主成分分析)。和对称方阵的特征值分解以及一般矩阵的SVD(奇异值分解)关系非常密切。
1. 首先以对 ...

你好,看了你的分享,收获很大。这里有一些不解:
1.你第一点(首先以对称方阵的特征值分解为例来说明)说的A矩阵和第二点(SVD角度)的A矩阵不是一个矩阵吧。这里我们把第二点的A矩阵定义为B,那第一点的矩阵A是不是应该是A=B'B。也就是第一点的A矩阵是第二点B矩阵的协方差矩阵。
2.在第一点中给的这个Y向量是不是B矩阵的列向量?
一切皆缘分
13楼2016-01-11 09:45:51
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

mygt_hit

专家顾问 (职业作家)

引用回帖:
13楼: Originally posted by tjuxh at 2016-01-11 09:45:51
你好,看了你的分享,收获很大。这里有一些不解:
1.你第一点(首先以对称方阵的特征值分解为例来说明)说的A矩阵和第二点(SVD角度)的A矩阵不是一个矩阵吧。这里我们把第二点的A矩阵定义为B,那第一点的矩阵A是 ...

1. 可能是我没表达清楚,你的理解是对的。
2. Y应该是新的列向量,不属于B。按照你的记号,B矩阵的每一列为一个变量或特征或性质,一共有d个,相当于d维向量,B矩阵是这d维向量的N个实现。Y则是用一个正交阵左乘该d维向量得到的新向量,特殊的地方在于该正交阵是A(也就是B的协方差阵)的标准化特征向量矩阵。Y的每一个分量都是d维向量各分量的线性组合,或者看作d维向量在新坐标系、新基(特征向量矩阵所表示)下的表达。
知其然,知其所以然。
14楼2016-01-11 10:49:47
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

tjuxh

金虫 (小有名气)

引用回帖:
14楼: Originally posted by mygt_hit at 2016-01-11 10:49:47
1. 可能是我没表达清楚,你的理解是对的。
2. Y应该是新的列向量,不属于B。按照你的记号,B矩阵的每一列为一个变量或特征或性质,一共有d个,相当于d维向量,B矩阵是这d维向量的N个实现。Y则是用一个正交阵左乘该 ...

哦,关于第二点我看错了。所以是不是这样理解的,第一点中的X其实就是我所标记的B矩阵的每一行,B矩阵有多少列,那么X就有多少个分量。而B矩阵的每一行就是X的一个sample。这里的Y其实是原数据X在新的坐标系下(S)的投影。不知道这样理解对不对。
一切皆缘分
15楼2016-01-12 23:15:38
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

mygt_hit

专家顾问 (职业作家)

引用回帖:
15楼: Originally posted by tjuxh at 2016-01-12 23:15:38
哦,关于第二点我看错了。所以是不是这样理解的,第一点中的X其实就是我所标记的B矩阵的每一行,B矩阵有多少列,那么X就有多少个分量。而B矩阵的每一行就是X的一个sample。这里的Y其实是原数据X在新的坐标系下(S) ...

对。

发自小木虫Android客户端
16楼2016-01-12 23:19:37
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

天知道

新虫 (小有名气)

引用回帖:
10楼: Originally posted by 拜星漫月 at 2016-01-09 12:33:36
楼主可以把你的pod资料发给我看看吗?谢谢啦啊。我也想学一下。

您好,能把您学习pod的资料发给我一份吗,感觉资料比较难找

发自小木虫IOS客户端
17楼2018-01-13 10:51:20
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

jiashuai887

新虫 (小有名气)

您好楼主,感谢您的经验分享,收获很多,在看文献时对一些地方不是很了解,还请点拨一下!我们求出最优正交基和相关时间系数,第一模态,第二模态分别指的是什么?对前N节模态进行重构又指的是什么?感谢,感谢

发自小木虫Android客户端

» 本帖已获得的红花(最新10朵)

18楼2018-04-10 09:30:04
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

jiashuai887

新虫 (小有名气)

送红花一朵
引用回帖:
18楼: Originally posted by jiashuai887 at 2018-04-10 09:30:04
您好楼主,感谢您的经验分享,收获很多,在看文献时对一些地方不是很了解,还请点拨一下!我们求出最优正交基和相关时间系数,第一模态,第二模态分别指的是什么?对前N节模态进行重构又指的是什么?感谢,感谢
...

具体代表的意思我明白,不知道如何用最优基矩阵和时间系数整理出一阶模态,二阶模态,和对前N阶模态进行重构?

发自小木虫Android客户端
19楼2018-04-10 09:36:25
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖
相关版块跳转 我要订阅楼主 tjuxh 的主题更新
信息提示
请填处理意见