2020-02-26
阅读量:
753
特征降维
在实际应用中,当特征个数增加到某一个临界点后,继续增加反而会导致分类器的性能变差——“维度灾难”(curse of dimensionality)。
对于高维数据,“维度灾难”使解决模式识别问题非常困难,此时,往往要求首先降低特征向量的维度。
降低特征向量维度的可行性分析:
特征向量往往是包含冗余信息的!
有些特征可能与分类问题无关
特征之间存在着很强的相关性
降低维度的方法
•特征组合:把几个特征组合在一起,形成新的特征
•特征选择:选择现有特征集的一个子集
针对不同的训练目标有不同的训练算法:
•最小化重构误差(主成分分析,PCA)
•最大化类别可分性(线性判别分析,LDA)
•最小化分类误差(判别训练,discriminative training)
•保留最多细节的投影(投影寻踪,projection pursuit)
•最大限度的使各特征之间独立(独立成分分析,ICA)






评论(0)


暂无数据
推荐帖子
0条评论
0条评论