K 最近邻算法

K 最近邻算法

  • 简单 KNN
  • 海伦约会
  • 手写数字识别
  • KNN 算法的优缺点

K 最近邻(K-NearestNeighbor,KNN)算法,是 1967 年由 Cover T 和 Hart P 提出的一种用于分类与回归的方法。

基本原理:存在一个带标签的数据集(也称为训练集),数据集中的每一个样本与所属标签一一对应。当输入新的不带标签的样本数据(预测数据)时,新的样本数据的每个特征会与训练集中每个样本的对应特征进行相似度计算,最后提取与预测样本最相似的训练样本的标签。一般而言,我们会选择训练集中前 K 个最相似的样本数据,这就是 K 最近邻算法。

简单 KNN

假设有一个带标签的数据集,包含“打斗镜头”和“接吻镜头”两个特征,标签为“电影类型”,数据集如下表所示:

电影名称打斗镜头接吻镜头电影类型
电影11101爱情片
电影2589爱情片
电影31085动作片
电影41158动作片

现在有一个新的样本数据(101 个打斗镜头,20 个接吻镜头),该如何预测它的所属类型呢?

我们可以把打斗镜头作为 x 维度,把接吻镜头作为 y 维度,以此建立坐标系,它们的坐标关系如下图所示:

在这里插入图片描述

那我们又该如何比较新样本数据与训练集中样本数据的相似性呢?

我们可以利用它们之间的距离来表示相似度,具体可以根据以下公式:
∣ A B ∣ = ( x 1 − x 2 ) 2 + ( y 1 − y 2 ) 2 |AB| = \sqrt{{(x_1 - x_2)}^{2} + {(y_1 - y_2)}^{2}} AB=(x1x2)2+(y1y2)2
通过计算,我们可以得到以下结果:

  • (101, 20) -> 动作片 (108, 5) 的距离约为 16.55
  • (101, 20) -> 动作片 (115, 8) 的距离约为 18.44
  • (101, 20) -> 爱情片 (5, 89) 的距离约为 118.22
  • (101, 20) -> 爱情片 (1, 101) 的距离约为 128.69

通过计算可知,新样本数据 (101, 20) 与训练集中的样本 (108, 5) 距离最近,也就是最相似,因此我们提取样本 (108, 5) 的标签“动作片”,并将其赋给新样本数据 (101, 20),从而预测出新样本数据的电影类型为“动作片”,这就是 KNN 模型完整的预测过程。

如果模型根据最相似的一个结果,对新样本数据进行预测,这只能说是最近邻算法,而非 K 最近邻算法。K 最近邻算法需要返回最相似的前 K 个结果,并对这 K 个结果进行概率统计,最终选取概率最高的作为最后的预测结果。

K 最近邻算法步骤如下:

  1. 计算新样本数据与训练集中每个样本数据之间的距离
  2. 按照距离递增次序对样本数据进行排列
  3. 选取前 K 个最相似的样本数据,并获取它们的标签
  4. 计算这 K 个标签的出现频率
  5. 将出现频率最高的标签作为预测结果

比如,在上述例子中,选取 K=3,按照距离递增次序排列的前三个样本分别为动作片 (108, 5)、动作片 (115, 8)、爱情片 (5, 89),其中动作片出现的频率为 2/3,因此我们可以预测新样本数据 (101, 20) 的电影类型为“动作片”。

上述案例的代码实现:

import numpy as np
import pandas as pd# 读取数据集,并划分特征数据和标签数据
def read_dataset():df = pd.read_csv(r'D:\MachineLearning\movie_type.csv')  # 读取数据集data = df.iloc[:, 1:]  # 获取数据集的第 2、3、4 列数据data = data.to_numpy()  # 将 pandas.core.frame.DataFrame 转为 numpy.ndarraytrain_data = data[:, :2]  # data 的第 1、2 列为特征数据labels = data[:, -1]  # data 的第 3 列为标签数据return train_data, labels# 计算距离
def calculate_distance(predict_data, train_data):dist = np.sqrt(np.sum((predict_data - train_data) ** 2, axis=1))  # 计算新样本数据与训练集中每一个样本数据间的距离return dist# 预测结果
def select_best_result(dist, labels, k):labels_lst = [labels[index] for index in dist.argsort()[:k]]  # 获取前 k 个最相似数据对应的标签# 选取前 k 个标签中出现频率最高的作为最终结果num_labels = {}num = labels_lst.count(labels_lst[0])num_labels[labels_lst[0]] = numif len(labels_lst) > 1:for i in range(1, len(labels_lst)):for j in range(i):if labels_lst[i] == labels_lst[j]:breakelse:  # 第二个循环没有执行 break 时,会执行 elsenum = labels_lst.count(labels_lst[i])num_labels[labels_lst[i]] = numresult = max(num_labels, key=num_labels.get)  # 获取字典中每个键对应的值,并将最大值对应的键返回return resultif __name__ == '__main__':predict_data = np.array([101, 20])  # 预测数据train_data, labels = read_dataset()  # 获取特征数据和标签数据train_data = train_data.astype(float)  # 将整数数组转换为浮点数组,方便后续计算predict_data = np.full((4, 2), predict_data)  # 将预测数据填充为跟 train_data 有相同的维度predict_data = predict_data.astype(float)  # 将整数数组转换为浮点数组,方便后续计算dist = calculate_distance(predict_data, train_data)  # 计算距离result = select_best_result(dist, labels, k=1)  # 选取最好的结果print(result)
---------
action

海伦约会

海伦女士一直使用在线约会网站寻找适合自己的约会对象,她会将接触过的人按以下方式进行分类:

  1. 没有魅力的人
  2. 魅力一般的人
  3. 魅力十足的人

海伦已经收集了一段时间的约会数据,她把这些数据存放在一个文本文件中,一共有 1000 个样本数据,每个样本数据包含以下三种特征:

  • 每年获得的飞行常客里程数
  • 玩视频游戏所消耗的时间百分比
  • 每周消费的冰淇淋公升数

数据集中存放的数据格式如下图所示:

在这里插入图片描述

我们将使用 KNN 模型对其进行分析并预测,完整代码如下所示:

import numpy as np
import pandas as pd# 读取数据集,将数据集划分成训练集和测试集,并划分特征数据和标签数据,同时将标签进行相应转换以方便后续处理
def read_dataset():df = pd.read_table(r'D:\MachineLearning\dating_set.txt', header=None)  # 读取数据集,共 1000 个样本data = df.iloc[:, :]  # 获取数据集的第 1、2、3、4 列数据train_for_data = data.sample(frac=0.9)  # 从原始数据 data 中随机选择 90% 的数据作为训练集test_for_data = data.drop(train_for_data.index)  # 从原始数据 data 中提取剩下的 10% 数据作为测试集train_for_data = train_for_data.to_numpy()  # 将 pandas.core.frame.DataFrame 转为 numpy.ndarraytest_for_data = test_for_data.to_numpy()  # 将 pandas.core.frame.DataFrame 转为 numpy.ndarraytrain_data = train_for_data[:, :3]  # train_for_data 的第 1、2、3 列为训练集的特征数据train_labels = train_for_data[:, -1]  # train_for_data 的第 4 列为训练集的标签数据test_data = test_for_data[:, :3]  # test_for_data 的第 1、2、3 列为训练集的特征数据test_labels = test_for_data[:, -1]  # test_for_data 的第 4 列为训练集的标签数据label_mapping = {'didntLike': 1, 'smallDoses': 2, 'largeDoses': 3}  # 建立能将字符串标签映射成数字标签的字典train_labels = np.array([label_mapping[label] for label in train_labels])  # 将字符串标签转换成数字标签test_labels = np.array([label_mapping[label] for label in test_labels])  # 将字符串标签转换成数字标签return train_data, test_data, train_labels, test_labels# 归一化
def normalize(train_data, test_data):for i in range(train_data.shape[1]):arr = train_data[:, i]  # 一列特征数据max_value = arr.max()  # 最大值min_value = arr.min()  # 最小值arr = (arr - min_value) / (max_value - min_value)  # 归一化计算train_data[:, i] = arrfor i in range(test_data.shape[1]):arr = test_data[:, i]  # 一列特征数据max_value = arr.max()  # 最大值min_value = arr.min()  # 最小值arr = (arr - min_value) / (max_value - min_value)  # 归一化计算test_data[:, i] = arrreturn train_data, test_data# 计算距离
def calculate_distance(predict_data, train_data):dist = np.sqrt(np.sum((predict_data - train_data) ** 2, axis=1))  # 计算新样本数据与训练集中每一个样本数据间的距离return dist# 预测结果
def select_best_result(dist, labels, k):labels_lst = [labels[index] for index in dist.argsort()[:k]]  # 获取前 k 个最相似数据对应的标签# 选取前 k 个标签中出现频率最高的作为最终结果num_labels = {}num = labels_lst.count(labels_lst[0])num_labels[labels_lst[0]] = numif len(labels_lst) > 1:for i in range(1, len(labels_lst)):for j in range(i):if labels_lst[i] == labels_lst[j]:breakelse:  # 第二个循环没有执行 break 时,会执行 elsenum = labels_lst.count(labels_lst[i])num_labels[labels_lst[i]] = numresult = max(num_labels, key=num_labels.get)  # 获取字典中每个键对应的值,并将最大值对应的键返回return result# 计算错误率
def calculate_error_rate(test_result, test_labels):num_error = 0for i in range(len(test_result)):if test_result[i] != test_labels[i]:num_error += 1error_rate = num_error / len(test_result) * 100print(f'错误率为:{error_rate}%')if __name__ == '__main__':train_data, test_data, train_labels, test_labels = read_dataset()  # 获取用于训练与测试的特征数据和标签数据train_data, test_data = normalize(train_data, test_data)  # 将用于训练与测试的特征数据归一化train_data = train_data.astype(float)test_data = test_data.astype(float)num_samples = train_data.shape[0]  # 训练集中的样本个数(行数)num_features = train_data.shape[1]  # 训练集中的特征个数(列数)test_result = []for i in range(len(test_data)):predict_data = np.full((num_samples, num_features), test_data[i])  # 将测试数据集中的一个样本填充为跟 train_data 有相同的维度predict_data = predict_data.astype(float)dist = calculate_distance(predict_data, train_data)  # 计算距离result = select_best_result(dist, train_labels, k=1)  # 选取最好的结果test_result.append(result)test_result = np.array(test_result)calculate_error_rate(test_result, test_labels)  # 计算测试集的错误率
---------
错误率为:6.0%

手写数字识别

scikit learn 简称 sklearn,是 Python 的一个第三方库,里面包含了很多机器学习的方法,借助 sklearn,我们可以很快地实现一个机器学习算法。

sklearn.neighbors 模块实现了 KNN 算法,其函数实现如下所示:

sklearn.neighbors.KNeighborsClassifier(n_neighbors=5, weights='uniform', algorithm='auto', leaf_size=30, p=2, metric='minkowski', metric_params=None, n_jobs=None)- n_neighbors:参数 k 的值,默认为 5- weights:参数值可以是 uniform、distance 或用户自定义的函数,默认为 uniform;uniform 表示均等的权重,即所有邻近点的权重都是相等的;distance 表示不均等的权重,距离近的点要比距离远的点的影响大;用户自定义的函数接收距离数组,并返回维数相同的权重- algorithm:用于计算最近邻的算法,默认使用 auto 方式,即根据传递给拟合方法的值决定最合适的算法;除此外,还可以指定 ball_tree、kd_tree、brute 等方式进行最近邻的计算;brute 是暴力搜索,当训练集很大时,计算非常耗时;kd_tree 是数据结构中的二叉树,构造的 kd 树可以方便地对存储数据进行快速检索,在数据维度小于 20 时效率高;ball_tree 是为了克服 kd 树高维失效而构建的,其以质心和半径分割样本空间,每个节点都是一个超球体- leaf_size:传递给 ball_tree 或 kd_tree 的大小,默认为 30;该参数的设置会影响树的构建速度、查询速度以及存储树所需的内存,最佳取值取决于问题的性质- p:闵可夫斯基距离度量的幂参数,当 p=1 时,相当于使用曼哈顿距离 l1;当 p=2 时,相当于使用欧几里得距离 l2;对于任意 p 值,则使用闵可夫斯基距离(minkowski distance)- metric:距离度量,默认为 minkowski;闵可夫斯基距离也被称为闵式距离,它将多个距离公式(曼哈顿距离、欧式距离、切比雪夫距离)总结成了一个公式- metric_params:距离公式的其他关键参数,这个可以不管,使用默认的 None 即可- n_jobs:搜索邻近点时的并行工作数,默认为 1;如果为 -1,则表示 CPU 的所有 Cores 都用于并行工作

由 KNeighborsClassifier 创建的实例对象 neigh 具有以下方法:

fit(X, y)  # 根据训练集拟合 k 近邻分类器- X:训练数据,形状为 (n_samples, n_features)- y:目标值(训练样本对应的标签),形状为 (n_samples,)返回拟合的 k 近邻分类器get_params(deep=True)  # 以字典形式返回 KNeighborsClassifier 类的参数- deep:布尔值,默认为 True返回 {'algorithm': 'auto', 'leaf_size': 30, 'metric': 'minkowski', 'metric_params': None, 'n_jobs': None, 'n_neighbors': 3, 'p': 2, 'weights': 'uniform'}kneighbors(X=None, n_neighbors=None, return_distance=True)  # 给定一个样本和一个查询集,查找该样本在查询集中的 k 个近邻- X:训练数据或者说是查询数据,形状为 (n_samples, n_features)- n_neighbors:查找的近邻数量 k,默认值为传给构造函数的值- return_distance:布尔值,表示是否返回距离,默认为 True返回形状为 (n_samples, n_features) 的距离(当 return_distance=True 时才会返回)以及对应的形状为 (n_samples, n_features) 的索引predict(X)  # 预测所提供数据的类别标签- X:预测数据,形状为 (n_samples, n_features)以 np.ndarray 形式返回形状为 (n_samples,) 的每个数据样本的类别标签predict_proba(X)  # 返回预测数据 X 在各类别标签中所占的概率- X:预测数据,形状为 (n_samples, n_features)返回该样本在各类别标签中的预测概率,类别标签按词典顺序排列;比如对于 [1. 0. 0. 0. 0. 0. 0. 0. 0. 0.] 这个结果,样本识别为数字 0 的概率为 1,类别标签从 09 依次排列score(X, y, sample_weight=None)  # 返回预测结果和标签之间的平均准确率- X:预测数据,形状为 (n_samples, n_features)- y:预测数据的目标值(真实标签)- sample_weight:默认为 None返回预测数据的平均准确率,相当于先执行了 self.predict(X),而后再计算预测值和真实值之间的平均准确率

我们知道手写数字图像是大小为 32×32 的二进制图像,为了方便计算,我们可以将其转换为 1×1024 的向量。在 KNeighborsClassifier 函数中,输入可以是矩阵,不过为了跟自己写的 KNN 算法对应上,这里也做了向量化处理。完整的手写数字识别 KNN 模型代码实现如下:

import os
import numpy as np
import pandas as pd
from sklearn.neighbors import KNeighborsClassifier# 将 (32, 32) 的矩阵转换成 (1, 1024) 的向量
def mat_to_vector(file: str) -> np.ndarray:df = pd.read_table(file, header=None)df = df.to_numpy()vec = np.zeros((1, df.shape[0] * df.shape[0]))  # (1, 1024)with open(file, 'r') as f:rows = f.readlines()  # 读取文件中的所有行,并以列表形式返回for i in range(len(rows)):row = rows[i].strip()  # 读取列表中的一个字符串元素columns = [int(row[i:i+1]) for i in range(len(row))]  # 将字符串分割成单个数字,并以列表形式返回for j in range(len(columns)):vec[0, 32 * i + j] = int(columns[j])  # 将每一个数字赋值给向量 vec 对应的位置return vec# 读取训练集
def read_train_dataset(path: str) -> (np.ndarray, np.ndarray):train_labels = []  # 用于存储手写数字图像对应的数字标签train_files = os.listdir(path)  # 读取所有二进制图像文件,并以列表形式返回df = pd.read_table(os.path.join(path, train_files[0]), header=None)df = df.to_numpy()m = len(train_files)  # 1934train_mat = np.zeros((m, df.shape[0] * df.shape[0]))  # (1934, 1024)for i in range(m):train_file_name = train_files[i]digit = int(train_file_name.split('_')[0])train_labels.append(digit)  # 将每一个图像文件对应的数字标签存储到列表train_mat[i, :] = mat_to_vector(os.path.join(path, train_files[i]))  # 将每一个 (1, 1024) 的二进制图像数据赋值到矩阵train_labels = np.array(train_labels)return train_mat, train_labels# 读取测试集
def read_test_dataset(path: str) -> (np.ndarray, np.ndarray):test_labels = []  # 用于存储手写数字图像对应的数字标签test_files = os.listdir(path)  # 读取所有二进制图像文件,并以列表形式返回df = pd.read_table(os.path.join(path, test_files[0]), header=None)df = df.to_numpy()m = len(test_files)  # 946test_mat = np.zeros((m, df.shape[0] * df.shape[0]))  # (946, 1024)for i in range(m):test_file_name = test_files[i]digit = int(test_file_name.split('_')[0])test_labels.append(digit)  # 将每一个图像文件对应的数字标签存储到列表test_mat[i, :] = mat_to_vector(os.path.join(path, test_files[i]))  # 将每一个 (1, 1024) 的二进制图像数据赋值到矩阵test_labels = np.array(test_labels)return test_mat, test_labels# 构建 KNN 模型
def knn_model(train_data: np.ndarray, train_labels: list) -> object:neigh = KNeighborsClassifier(n_neighbors=3)neigh.fit(train_data, train_labels)return neighif __name__ == '__main__':train_path = r'D:\MachineLearning\trainingDigits'test_path = r'D:\MachineLearning\testDigits'train_data, train_labels = read_train_dataset(train_path)  # 读取训练数据,并返回训练集和对应标签neigh = knn_model(train_data, train_labels)  # 构建 KNN 模型,并返回 KNN 对象test_data, test_labels = read_test_dataset(test_path)  # 读取测试数据,并返回测试集和对应标签result = neigh.predict(test_data)  # 预测结果,并以 np.ndarray 形式返回result_lst = (result - test_labels).tolist()  # 将数组转成列表error_rate = (len(result_lst) - result_lst.count(0)) / len(result_lst) * 100  # 计算错误率print(f'错误率为:{error_rate}%')

训练集和测试集的文件格式如下图所示,第一个数字为该二进制图像文件对应的数字标签:

在这里插入图片描述

文件中存储的数据格式如下图所示:

在这里插入图片描述

KNN 算法的优缺点

优点

  1. 简单直观:KNN 是一种非参数化算法,不需要假设数据的分布情况。它通过比较实例之间的距离来进行分类或回归,易于理解和实现。
  2. 适用于多类别问题:KNN 可以处理多类别问题,不受类别数量的限制。
  3. 对异常值不敏感:由于 KNN 根据最近的邻居进行分类或回归,异常值对结果的影响较小。
  4. 模型可以随时更新:当新的训练样本加入时,可以很容易地对模型进行更新,而无需重新进行训练。

缺点

  1. 高计算复杂度:在预测时,需要计算测试样本与所有训练样本之间的距离,因此随着训练集规模的增大,计算复杂度也会增加。这可能导致 KNN 在大型数据集上的效率低下。
  2. 对特征尺度敏感:如果特征之间的尺度差异很大,那么在计算距离时,尺度较大的特征会主导结果,从而忽略了其他特征的影响。因此,在使用 KNN 之前,需要对数据进行特征缩放。
  3. 需要确定 K 值:KNN 算法中的 K 值表示选择多少个最近邻居来进行决策。选择不同的 K 值可能会对结果产生不同的影响,而且没有明确的准则可以确定最佳的 K 值,需要通过交叉验证或其他方法进行调优。
  4. 类别不平衡问题:当训练集中某个类别的样本数远远多于其他类别时,KNN 可能会偏向于占主导地位的类别。

综上所述,KNN 算法简单直观,对异常值不敏感,适用于多类别问题,并且可以随时更新模型。然而,它的计算复杂度高,对特征尺度敏感,需要确定 K 值,并且对类别不平衡问题比较敏感。在实际应用中,需要权衡这些因素并根据具体问题的特点选择合适的机器学习算法。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/178049.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

漏电保护器工作原理

漏电保护器 漏电保护器是低压线路中最常用的保护器之一,简称漏保,又称漏电开关或漏电断路器。漏电保护器除了具有空开的所有保护功能外,还具备漏电保护功能。 需要了解 一根通电导线可以产生磁场,磁场与电流方向遵循右手螺旋关…

swingbench造数失败可能原因及解决方法

swingbench造数失败解决方法 1.临时表空间文件内存不足,扩展临时表空间文件内存 alter database tempfile/home/oracle/oradata/orcl/temp01.dbf resize 30G;(这里扩展完temp临时表空间后可以造数成功,则不需要扩展soe用户表空间&#xff09…

【MATLAB】VMD分解+FFT+HHT组合算法

有意向获取代码,请转文末观看代码获取方式~也可转原文链接获取~ 1 基本定义 VMD(Variational Mode Decomposition)是一种信号分解方法,基于HHT(Hilbert-Huang Transform,希尔伯特-黄变换)。HH…

智能学习台灯_AI摄像头学习机基于MTk8175方案

智能学习台灯是一款专为中小学生设计的学习辅助工具,具有多项突出的参数和功能。首先,它采用了基于联发科MTK平台的解决方案,内置了12纳米四核Cortex-A53处理器,提供了稳定而高效的性能。操作系统方面,智能学习台灯运行…

ATFX汇市:英、日、欧央行行长同日发声,均强调2%通胀目标尚未达成

ATFX动态:11月27日,英国央行行长贝利表示,“我们必须将(通胀)降到2%,这就是为什么我最近一直在给有关我们正在讨论降息或者我们将在可预见的未来降息的假设泼冷水,因为现在谈这个问题还太早”。…

springcloud nacos配置优先级研究及配置管理最佳实践

目录 背景工具版本SpringCloud配置存放位置及相应优先级代码中nacosjar包外挂 多种配置共同存在时的优先级项目配置管理最佳实践无nacos的情况有nacos的情况 参考文献 背景 公司有很多应用是基于SpringBoot/SpringCloud开发。由于在配置文件中经常会涉及数据库账号密码之类的敏…

Boot工程快速启动【Linux】

Boot工程快速启动【Linux】 在idea中打包cd usr/在local文件夹下mkdir app进入app文件夹把打包好的文件(只上传其中的jar)上传到app文件下检查linux中的Java版本,保证和项目的Java 版本保持一致运行 java -jar sp补全***.jar想看效果得查询当…

UniApp项目中 使用微信小程序原生语言 进行开发

看效果 wxcomponents 下放的是微信小程序原生代码写的组件。我进行了封装 上干货 在你下uniApp 项目的根目录创建一个 wxcomponents 名字千万不要错 京东、支付宝灯参考下面图片 官方文档也有介绍 然后在你需要引入原生功能的页面里面引入你的组件(我这里提前已经放…

初识Java 18-2 泛型

目录 构建复杂模型 类型擦除 C中的泛型 迁移的兼容性 类型擦除存在的问题 边界的行为 对类型擦除的补偿 创建类型实例 泛型数组 本笔记参考自: 《On Java 中文版》 构建复杂模型 泛型的一个优点就是,能够简单且安全地创建复杂模型。 【例子&am…

nginx反向代理解决跨域前端实践

需求实现 本地请求百度的一个搜索接口,用nginx代理解决跨域思路:前端和后端都用nginx代理到同一个地址8080,这样访问接口就不存在跨域限制 本地页面 查询一个百度搜索接口,运行在http://localhost:8035 index.js const path …

elment Loading 加载组件动态变更 text 值bug记录

先上效果图: 倒计时4分钟组件方法 // 倒计时 4分钟getSencond() {this.countDown 4分00秒this.interval setInterval(() > {this.maxTime--;let minutes Math.floor(this.maxTime / 60);let seconds Math.floor(this.maxTime % 60);minutes minutes < 10 ? 0 minu…

台式机加独显引发的故事

弄到一块NVIDIA1660显卡&#xff0c;想要加到台式机&#xff0c;枯树逢春&#xff1b;中间引发不少事情&#xff0c;记录下来共勉 1.台式机插入显卡 1&#xff09;拆开主机后部的接口片 2&#xff09;显卡插入显卡巢&#xff0c;很内存条结构类似&#xff08;长短布局&#xff…

电子学会C/C++编程等级考试2022年06月(二级)真题解析

C/C++等级考试(1~8级)全部真题・点这里 第1题:小白鼠再排队 N只小白鼠(1 < N < 100),每只鼠头上戴着一顶有颜色的帽子。现在称出每只白鼠的重量,要求按照白鼠重量从小到大的顺序输出它们头上帽子的颜色。帽子的颜色用 “red”,“blue”等字符串来表示。不同的小白…

React 之 airbnb - 项目实战

一、开发前言 1. 规范 2. 创建项目 node -v > 18.0.0 npm -v > 8.6.0 create-react-app star-airbnb 3. 项目基本配置 配置jsconfig.json {"compilerOptions": {"target": "es5","module": "esnext","ba…

kafka2.x常用命令:创建topic,查看topic列表、分区、副本详情,删除topic,测试topic发送与消费

原创/朱季谦 接触kafka开发已经两年多&#xff0c;也看过关于kafka的一些书&#xff0c;但一直没有怎么对它做总结&#xff0c;借着最近正好在看《Apache Kafka实战》一书&#xff0c;同时自己又搭建了三台kafka服务器&#xff0c;正好可以做一些总结记录。 本文主要是记录如…

Spring --- 创建一个Spring项目

文章目录 创建一个Maven项目添加Spring框架支持添加启动类 创建一个Maven项目 注&#xff1a;我们需要使用 Maven 来管理依赖&#xff0c;所以需要创建一个Maven项目 添加Spring框架支持 注&#xff1a; 添加这两个依赖才能正确使用 Spring在添加依赖后记得刷新&#xff0c;把依…

【Nginx篇】Nginx轻松上手

&#x1f49d;&#x1f49d;&#x1f49d;欢迎来到我的博客&#xff0c;很高兴能够在这里和您见面&#xff01;希望您在这里可以感受到一份轻松愉快的氛围&#xff0c;不仅可以获得有趣的内容和知识&#xff0c;也可以畅所欲言、分享您的想法和见解。 推荐:kwan 的首页,持续学…

Unity2D-URP基于ShaderGraph创建带粒子特效的激光光束

文章目录 创建Shader新建Node: UV新建Node: Split......参数说明 基于Shader创建Material创建Line创建粒子系统StartVFX创建粒子材质更改粒子系统的材质设置透明模式设置粒子效果创建一个Beam设置EndVFX效果预览激光光束管理脚本最终预览 创建Shader Create --> Shader Gra…

零信任、SASE还在因不标准的身份系统难对接而无法发挥真正力量?这份标准化的解决方案助您一臂之力

身份安全是网络安全的一个重要领域&#xff0c;旨在确保用户的身份安全可信&#xff0c;防止未经授权的访问和数据泄漏等问题。目前主流的信息安全趋势强调可持续验证、多源信任评估、动态防护、可持续数据防护、一体化安全审计等&#xff0c;特别是零信任、SASE等技术均以身份…

vue elementUI 自定义框组织树,选择select下拉组织树横行滑动条出现方法

背景&#xff1a;最近公司开发需要使用到组织树进行组织结构的选择&#xff0c;在开发途中遇到两个次组织树已超过外框&#xff0c;但超出部分不显示横向滑动条。 自定义组织树框代码如下&#xff1a; <el-row><el-col :span"20" style"padding: 0px…