2019-01-17
阅读量:
818
准确的PCA和概率解释
PCA 用于对一组连续正交分量中的多变量数据集进行方差最大方向的分解。 在 scikit-learn 中, PCA
被实现为一个变换对象, 通过 fit
方法可以降维成 <cite>n</cite> 个成分, 并且可以将新的数据投影(project, 亦可理解为分解)到这些成分中。
可选参数 whiten=True
使得可以将数据投影到奇异(singular)空间上,同时将每个成分缩放到单位方差。 如果下游模型对信号的各向同性作出强烈的假设,这通常是有用的,例如,使用RBF内核的 SVM 算法和 K-Means 聚类算法。
以下是iris数据集的一个示例,该数据集包含4个特征, 通过PCA降维后投影到方差最大的二维空间上:
PCA
对象还提供了 PCA 的概率解释, 其可以基于其解释的方差量给出数据的可能性。
可以通过在交叉验证(cross-validation)中使用 <cite>score</cite> 方法来实现:






评论(0)


暂无数据
推荐帖子
0条评论
0条评论
0条评论