🌟欢迎来到 我的博客 —— 探索技术的无限可能!
🌟博客的简介(文章目录)
目录
- KNN的介绍和应用
- KNN的介绍
- 1) KNN建立过程
- 2) 类别的判定
- KNN的优点
- KNN的缺点
- KNN的应用
- 实战
- KNN分类
- 数据集 —— KNN分类
- 库函数导入
- 数据导入
- 模型训练&可视化
- 原理简析
- 莺尾花数据集 —— KNN分类
- 库函数导入
- 数据导入&分析
- 模型训练
- 模型预测&可视化
- KNN回归
KNN的介绍和应用
KNN的介绍
K最近邻(K-Nearest Neighbors, KNN)是一种简单且直观的非参数监督学习算法。其核心思想是,对于给定的输入数据点,通过计算其与训练集中所有数据点的距离,找到与其距离最近的K个数据点(邻居),然后根据这些邻居的类别进行投票(分类任务)或求平均值(回归任务),以确定该数据点的类别或数值。常见的距离度量方法包括欧氏距离、曼哈顿距离和闵可夫斯基距离。
k值还可以表示我们的模型复杂度,当k值越小意味着模型复杂度表达,更容易过拟合,(用极少树的样例来绝对这个预测的结果,很容易产生偏见,这就是过拟合)。我们有这样一句话,k值越多学习的估计误差越小,但是学习的近似误差就会增大。
kNN(k-nearest neighbors),中文翻译K近邻。我们常常听到一个故事&#x