热线电话:13121318867

登录
2019-01-17 阅读量: 818
准确的PCA和概率解释

PCA 用于对一组连续正交分量中的多变量数据集进行方差最大方向的分解。 在 scikit-learn 中, PCA 被实现为一个变换对象, 通过 fit方法可以降维成 <cite>n</cite> 个成分, 并且可以将新的数据投影(project, 亦可理解为分解)到这些成分中。

可选参数 whiten=True 使得可以将数据投影到奇异(singular)空间上,同时将每个成分缩放到单位方差。 如果下游模型对信号的各向同性作出强烈的假设,这通常是有用的,例如,使用RBF内核的 SVM 算法和 K-Means 聚类算法。

以下是iris数据集的一个示例,该数据集包含4个特征, 通过PCA降维后投影到方差最大的二维空间上:

PCA 对象还提供了 PCA 的概率解释, 其可以基于其解释的方差量给出数据的可能性。

可以通过在交叉验证(cross-validation)中使用 <cite>score</cite> 方法来实现:

http://sklearn.apachecn.org/cn/0.19.0/_images/sphx_glr_plot_pca_vs_fa_model_selection_0011.png

0.0000
0
关注作者
收藏
评论(0)

发表评论

暂无数据
推荐帖子