热线电话:13121318867

登录
2019-02-26 阅读量: 836
K值怎么选择?

问、K值怎么选择?

答:

K值的选择会对K近邻法的结果产生重大影响.

如果选择较小的K值,就相当着于用较小的邻域中的训练实例进行预测,“学习”的近似误差会减小,只有与输入实例较近的(相似的)训练实例才会对预测结果起作用.但缺点是“学习"的估计误差会增大,预测结果会对近邻的实例点非常敏感。如果邻近的实例点恰巧是噪声, 预测就会出错.换句话说,K值的减小就意味着整体模型变得复杂,容易发生过拟合.

如果选择较大的K值,就相当于用较大邻域中的训练实例进行预测.其优点是可以减少学习的估计误差.但缺点是学习的近似误差会增大.这时与输入实例较远的(不相似的)训练实例也会对预测起作用,使预测发生错误.k值的增大就意味着整体的模型变得简单.

如果k=N,那么无论输入实例是什么,都将简单地预测它属千在训练实例中最多的类.这时,模型过于简单,完全忽略训练实例中的大量有用信息,是不可取的.

在应用中,K值一般取一个比较小的数值.通常采用交叉验证法来选取最优的K值.

0.0000
2
关注作者
收藏
评论(0)

发表评论

暂无数据
推荐帖子