neighbors分类器有两个重要参数:邻居个数和数据点之间距离的度量方法。实践中使用较小的邻居个数(3、5个)往往可以取到比较好的结果。
k-NN的优点是易于理解,通常不需要过多调节就可以得到不错的性能,构建模型的速度通常很快,但是如果训练集很大,预测速度可能会比较慢。
缺点包括:对于有很多特征的数据集往往效果不好,对于大多数特征的大多数取值为0的数据集(也就是所谓的稀疏数据集)尤为不好,是实践中往往不会用到。
neighbors分类器有两个重要参数:邻居个数和数据点之间距离的度量方法。实践中使用较小的邻居个数(3、5个)往往可以取到比较好的结果。
k-NN的优点是易于理解,通常不需要过多调节就可以得到不错的性能,构建模型的速度通常很快,但是如果训练集很大,预测速度可能会比较慢。
缺点包括:对于有很多特征的数据集往往效果不好,对于大多数特征的大多数取值为0的数据集(也就是所谓的稀疏数据集)尤为不好,是实践中往往不会用到。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/599745.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!