热线电话:13121318867

登录
2020-04-23 阅读量: 810
PCA 是干嘛的

PCA 算法

首先还是简单回顾下 PCA 的算法流程。

我们把样本数据 xx 归一化后,计算其协方差矩阵 CxCx,然后计算 CxCx 的特征向量,构造出一个特征向量矩阵 AA,最后把 xx 通过该矩阵映射到一个新的空间,得到的向量 yy 就是能体现 xx 主要成分的向量了。

PCA 在做什么

那么,这种空间映射有什么意义呢?问题要回到协方差矩阵 CxCx 上。我们知道,协方差矩阵是一个对称矩阵,在线性代数中,对称矩阵的特征向量是相互正交的。而我们把 xx 通过这个特征向量矩阵映射到 yy,其实就是把原来的数据由最初的 [e1,e2,…,en][e1,e2,…,en] 的单位坐标系,调整到这些正交的特征向量组成的坐标系下,如下图所示:

这种坐标变换的意义又在哪呢?
如果仔细分析,我们就会发现,这些新得到的向量 yy 的均值为 00,而且它们的协方差矩阵为:

Cy=ACxAT=⎡⎣⎢⎢⎢⎢⎢λ10λ2⋱0λn⎤⎦⎥⎥⎥⎥⎥Cy=ACxAT=[λ10λ2⋱0λn]

这里,AA 是由 CxCx 的特征向量组成的矩阵,它的第一行表示最大特征值对应的特征向量,第二行表示第二大特征值对应的特征向量。CyCy 对角线上的 λkλk 代表 CxCx 的特征值,而且是按照从大到小排序的(λ1>λ2>⋯>λnλ1>λ2>⋯>λn)。
这个新的协方差矩阵有一个很重要的性质,除了对角线上的元素,其他元素通通是 0。要知道,协方差矩阵中,对角线上的元素表示方差,非对角线上的元素表示协方差。这说明,经过 PCA 处理后,我们把原本的数据 xx,转变成各个分量之间没有任何关系(协方差为 0)的数据 yy!我认为这正是 PCA 的精髓所在,也是我们使用 PCA 算法的根本目标。
另外,PCA 还经常用于降维处理,那么为什么 PCA 的降维效果会那么好?
首先要明确一点,降维不是随便都能降的,最好的降维方法是要尽量保留重要的信息,而忽略次要的信息。在 PCA 中,我们一般是对协方差矩阵的特征值按从大到小排序,然后舍弃一些比较小的特征值(以及这些特征值对应的特征向量),这样重新计算得到 yy 后,它的协方差矩阵可能是这个样子的:

Cy=⎡⎣⎢⎢⎢⎢⎢λ10λ2⋱0λk⎤⎦⎥⎥⎥⎥⎥Cy=[λ10λ2⋱0λk]

(我们舍弃掉了 n−kn−k 个特征向量,将数据由 nn 维降到 kk 维)
要知道,这些特征值(或者说方差)都是按照从大到小排序的,也就是说,我们在降维时,舍弃掉了那些特征值比较小的分量。这么做是符合常理的,因为数据的方差越大,证明分布越广,这样,我们还原这些数据的难度是越大的,而方差越小,证明数据分布越集中,还原它们的难度就越小(方差为 0 的话,用一个数就可以代表所有样本了)。所以,降维时,我们尽量保留那些方差大的数据,而忽略那些方差小的。本文开篇的图中给出一个形象的解释,我们把一个二维的数据映射到一维时,也是优先映射到方差大的那一维上,这样,原数据的分布规律可以最大限度的保留下来,信息的保留也是最完整的。

2.8407
1
关注作者
收藏
评论(0)

发表评论

暂无数据
推荐帖子