【机器学习】鸢尾花分类:机器学习领域经典入门项目实战

学习机器学习,就像学习任何新技能一样,最好的方法之一就是通过实战来巩固理论知识。鸢尾花分类项目是一个经典的入门项目,它不仅简单易懂,还能帮助我们掌握机器学习的基本步骤和方法。

鸢尾花数据集(Iris Dataset)早在1936年就由英国生物学家 Ronald A. Fisher 引入。这个数据集包含了150个鸢尾花样本,每个样本有4个特征(花萼长度、花萼宽度、花瓣长度和花瓣宽度)和1个目标变量(鸢尾花的品种)。这个数据集常用于教学和练习,是机器学习领域的 “Hello World” 项目。

本项目旨在使用鸢尾花数据集,通过数据准备、数据预处理、数据分割、模型选择、模型训练、模型评估、模型优化和模型部署等步骤,全面展示机器学习的基本流程。我们将使用 Python 和 scikit-learn 库,通过实际代码演示如何完成一个完整的机器学习项目。希望这篇文章能够帮助初学者快速上手机器学习,理解和掌握关键的技术和方法。


文章目录

      • 1、项目介绍
        • 1.1、项目背景
        • 1.2、项目目标
        • 1.3、项目步骤
      • 2、项目实战
        • 2.1、数据准备
        • 2.2、数据可视化
        • 2.3、数据预处理
        • 2.4、数据分割
        • 2.5、选择模型
        • 2.6、训练模型
        • 2.7、评估模型
        • 2.8、模型优化
        • 2.9、模型部署
      • 3、项目源码


1、项目介绍

鸢尾花分类项目是机器学习领域中一个经典的入门项目,旨在通过分类算法将不同品种的鸢尾花进行分类。这个项目常用于教学和练习机器学习的基本概念。

1.1、项目背景

鸢尾花数据集(Iris Dataset)由英国生物学家和统计学家 Ronald A. Fisher 于 1936 年在他的论文《The use of multiple measurements in taxonomic problems》中首次引入。这个数据集包含了 150 个鸢尾花样本,每个样本有 4 个特征和 1 个目标变量。

  • 特征包括:花萼长度(sepal length)、花萼宽度(sepal width)、花瓣长度(petal length)和 花瓣宽度(petal width);
  • 目标变量:鸢尾花的品种(有三种类别:山鸢尾(Iris Setosa)、变色鸢尾(Iris Versicolour)以及 维吉尼亚鸢尾(Iris Virginica))。
1.2、项目目标

使用机器学习算法,根据鸢尾花的四个特征来预测其所属的品种。

1.3、项目步骤

以下是机器学习大致的基本步骤,我们后面实战部分也将是参考此步骤来进行的:

  1. 数据准备:获取并准备好数据集。在鸢尾花数据集中,这包括加载数据,了解数据的结构,检查是否有缺失值等;
  2. 数据预处理:对数据进行清洗和转换,如处理缺失值、标准化或归一化特征等;
  3. 数据分割:将数据分成训练集和测试集。训练集用于训练模型,测试集用于评估模型的性能;
  4. 选择模型:选择合适的机器学习算法来训练模型,如K近邻(KNN)、决策树、逻辑回归、支持向量机(SVM)等;
  5. 训练模型:使用训练数据来训练模型;
  6. 评估模型:使用测试数据评估模型的性能,查看模型的准确率、混淆矩阵等评估指标;
  7. 模型优化:根据评估结果调整模型参数,优化模型性能;
  8. 模型部署:将训练好的模型应用到实际问题中进行预测。

2、项目实战

2.1、数据准备

鸢尾花数据集作为机器学习领域中最著名的数据集之一,常用于入门级教学和算法验证。

我们可以通过以下地址对该数据集进行下载:https://archive.ics.uci.edu/dataset/53/iris。下载后,导入:

import pandas as pd# 指定列名
feature_names = ["sepal length (cm)","sepal width (cm)","petal length (cm)","petal width (cm)"
]# 加载数据
data = pd.read_csv('path/to/iris.data', header=None, names=feature_names + ['class'])# 查看数据
print(data.head())

或者,我们也可以使用 scikit-learn 库自带的标准数据集进行导入 from sklearn.datasets import load_iris

import pandas as pd
from sklearn.datasets import load_iris# 加载数据集
iris = load_iris()                                                              # 使用 load_iris 函数加载鸢尾花数据集,返回一个 Bunch 对象
data = pd.DataFrame(data=iris.data, columns=iris.feature_names)                 # 将数据集的特征数据转换为 pandas DataFrame,并指定列名为特征名称
data['target'] = iris.target                                                    # 在 DataFrame 中添加一列 'target',对应每个样本的目标标签
data['target_names'] = data['target'].apply(lambda x: iris.target_names[x])     # 添加一列 'target_names',通过映射 'target' 列的值来获取对应的目标名称# 查看数据
print(data.head())      # 查看数据集前五行数据
print('-')
print(data.info())      # 查看数据集的基本信息
print('-')
print(data.describe())  # 查看数据集的统计信息

打印结果:

   sepal length (cm)  sepal width (cm)  ...  target  target_names
0                5.1               3.5  ...       0        setosa
1                4.9               3.0  ...       0        setosa
2                4.7               3.2  ...       0        setosa
3                4.6               3.1  ...       0        setosa
4                5.0               3.6  ...       0        setosa[5 rows x 6 columns]
-
<class 'pandas.core.frame.DataFrame'>
RangeIndex: 150 entries, 0 to 149
Data columns (total 6 columns):#   Column             Non-Null Count  Dtype  
---  ------             --------------  -----  0   sepal length (cm)  150 non-null    float641   sepal width (cm)   150 non-null    float642   petal length (cm)  150 non-null    float643   petal width (cm)   150 non-null    float644   target             150 non-null    int64  5   target_names       150 non-null    object 
dtypes: float64(4), int64(1), object(1)
memory usage: 7.2+ KB
None
-sepal length (cm)  sepal width (cm)  ...  petal width (cm)      target
count         150.000000        150.000000  ...        150.000000  150.000000
mean            5.843333          3.057333  ...          1.199333    1.000000
std             0.828066          0.435866  ...          0.762238    0.819232
min             4.300000          2.000000  ...          0.100000    0.000000
25%             5.100000          2.800000  ...          0.300000    0.000000
50%             5.800000          3.000000  ...          1.300000    1.000000
75%             6.400000          3.300000  ...          1.800000    2.000000
max             7.900000          4.400000  ...          2.500000    2.000000[8 rows x 5 columns]
2.2、数据可视化

通过数据可视化手段,探索数据的分布和特征之间的关系。使用 seabornpairplot 函数绘制特征之间的分布图,以便于观察数据的分布情况和不同类别之间的关系。

import seaborn as sns
import matplotlib.pyplot as plt# 绘制特征分布图
sns.pairplot(data, hue='target', markers=["o", "s", "D"])  # 使用 seaborn 库的 pairplot 函数绘制散点图矩阵,根据 'target' 列着色,并使用不同的标记
plt.show()                                                 # 显示图形

打印结果:

image-20240613150903410

2.3、数据预处理

对数据进行清洗和转换,如处理缺失值、标准化或归一化特征等。

# 检查是否有缺失值
print(data.isnull().sum())  # 打印每列的缺失值数量,以检查数据集中是否存在缺失值# 标准化特征值
scaler = StandardScaler()                                                  # 创建一个 StandardScaler 对象
data[iris.feature_names] = scaler.fit_transform(data[iris.feature_names])  # 对特征列进行标准化处理,使其均值为 0,标准差为 1# 查看标准化后的数据
print(data.head())  # 打印标准化后的数据集的前五行,查看标准化效果

打印结果:

       sepal length (cm)  sepal width (cm)  ...  petal width (cm)      target
count         150.000000        150.000000  ...        150.000000  150.000000
mean            5.843333          3.057333  ...          1.199333    1.000000
std             0.828066          0.435866  ...          0.762238    0.819232
min             4.300000          2.000000  ...          0.100000    0.000000
25%             5.100000          2.800000  ...          0.300000    0.000000
50%             5.800000          3.000000  ...          1.300000    1.000000
75%             6.400000          3.300000  ...          1.800000    2.000000
max             7.900000          4.400000  ...          2.500000    2.000000[8 rows x 5 columns]
-
sepal length (cm)    0
sepal width (cm)     0
petal length (cm)    0
petal width (cm)     0
target               0
target_names         0
dtype: int64sepal length (cm)  sepal width (cm)  ...  target  target_names
0          -0.900681          1.019004  ...       0        setosa
1          -1.143017         -0.131979  ...       0        setosa
2          -1.385353          0.328414  ...       0        setosa
3          -1.506521          0.098217  ...       0        setosa
4          -1.021849          1.249201  ...       0        setosa[5 rows x 6 columns]
2.4、数据分割

将数据分成训练集和测试集。训练集用于训练模型,测试集用于评估模型的性能。

分割数据集的主要目的是为了评估模型的性能。通过将数据集划分为训练集和测试集,我们可以在训练集上训练模型,并在测试集上评估模型的泛化能力。这有助于检测模型是否过拟合或欠拟合,并提供对模型性能的更真实的评估。

from sklearn.model_selection import train_test_split# 分割数据集
X = data[iris.feature_names]  # 特征数据,包含所有特征列
y = data['target']  # 目标数据,包含目标标签
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3,random_state=42)  # 将数据集按 70% 训练集和 30% 测试集进行分割,设置随机种子为 42 以确保可重复性# 查看分割后的数据集大小
print(f"训练集大小: {X_train.shape[0]}, 测试集大小: {X_test.shape[0]}")  # 打印训练集和测试集的大小

打印结果:

训练集大小: 105, 测试集大小: 45
2.5、选择模型

选择合适的机器学习算法来训练模型,如 K近邻(KNN)、决策树、逻辑回归、支持向量机(SVM)等。

这里选择 K 近邻(KNN)算法。

from sklearn.neighbors import KNeighborsClassifier# 初始化 KNN 分类器
knn = KNeighborsClassifier(n_neighbors=3)  # 创建一个 K 近邻分类器对象,设置近邻数为 3
2.6、训练模型

使用训练数据来训练模型。

# 训练模型
knn.fit(X_train, y_train)     # 使用训练数据训练 K 近邻分类器模型
2.7、评估模型

使用测试数据评估模型的性能,查看模型的准确率、混淆矩阵等评估指标。

评估指标解释:

  1. 准确率(Accuracy):正确预测的样本数占总样本数的比例;
  2. 分类报告(Classification Report),包括精确率、召回率、F1 分数和支持:
    • 精确率(Precision):正确预测的正样本数占预测为正样本数的比例;
    • 召回率(Recall):正确预测的正样本数占实际正样本数的比例;
    • F1 分数(F1-score):精确率和召回率的调和平均数;
    • 支持(Support):实际样本中每个类别的数量;
  3. 混淆矩阵(Confusion Matrix):显示实际标签和预测标签的分布,帮助理解分类模型的错误类型。
pfrom sklearn.metrics import accuracy_score, classification_report, confusion_matrix# 预测测试集
y_pred = knn.predict(X_test)  # 使用训练好的模型对测试数据进行预测,得到预测标签# 评估模型
print(f"Accuracy: {accuracy_score(y_test, y_pred)}")                      # 计算并打印模型在测试集上的准确率
print('-')
print("Classification Report:\n", classification_report(y_test, y_pred))  # 打印分类报告,包括精确率、召回率、F1 分数等
print('-')
print("Confusion Matrix:\n", confusion_matrix(y_test, y_pred))            # 打印混淆矩阵,显示真实标签和预测标签之间的关系
print('-')

打印结果:

Accuracy: 1.0
-
Classification Report:precision    recall  f1-score   support0       1.00      1.00      1.00        191       1.00      1.00      1.00        132       1.00      1.00      1.00        13accuracy                           1.00        45macro avg       1.00      1.00      1.00        45
weighted avg       1.00      1.00      1.00        45-
Confusion Matrix:[[19  0  0][ 0 13  0][ 0  0 13]]
2.8、模型优化

根据评估结果调整模型参数,优化模型性能。例如,通过网格搜索优化 KNN 模型的参数。

PS:网格搜索是一种系统化的方法,用于调整模型的超参数以提高模型的性能。通过交叉验证和不同参数组合的评估,网格搜索可以找到最佳的参数配置,从而提高模型的预测准确性和泛化能力。

from sklearn.model_selection import GridSearchCV# 定义参数范围
param_grid = {'n_neighbors': range(1, 20)}  # 创建一个参数字典,设置 'n_neighbors' 参数的取值范围为 1 到 19# 网格搜索
grid_search = GridSearchCV(KNeighborsClassifier(), param_grid, cv=5)  # 创建一个 GridSearchCV 对象,使用 KNeighborsClassifier 和定义的参数范围,设置交叉验证折数为 5
grid_search.fit(X_train, y_train)                                     # 使用训练数据进行网格搜索,以找到最佳参数组合# 最优参数
print(f"Best parameters: {grid_search.best_params_}")  # 打印通过网格搜索找到的最优参数
print('-')# 使用最优参数训练模型
knn_best = grid_search.best_estimator_  # 获取使用最优参数训练的最佳模型
y_pred_best = knn_best.predict(X_test)  # 使用最佳模型对测试数据进行预测# 评估模型
print(f"Accuracy(best): {accuracy_score(y_test, y_pred)}")                      # (优化后)计算并打印模型在测试集上的准确率
print('-')
print("Classification Report(best):\n", classification_report(y_test, y_pred))  # (优化后)打印分类报告,包括精确率、召回率、F1 分数等
print('-')
print("Confusion Matrix(best):\n", confusion_matrix(y_test, y_pred))            # (优化后)打印混淆矩阵,显示真实标签和预测标签之间的关系
print('-')

打印结果:

Best parameters: {'n_neighbors': 1}
-
Accuracy(best): 1.0
-
Classification Report(best):precision    recall  f1-score   support0       1.00      1.00      1.00        191       1.00      1.00      1.00        132       1.00      1.00      1.00        13accuracy                           1.00        45macro avg       1.00      1.00      1.00        45
weighted avg       1.00      1.00      1.00        45-
Confusion Matrix(best):[[19  0  0][ 0 13  0][ 0  0 13]]
2.9、模型部署

将训练好的模型应用到实际问题中进行预测。例如,预测新的鸢尾花样本的类别。

PS:为什么要标准化新样本?标准化新样本是必要的步骤,因为模型在训练时使用的是标准化后的数据。如果新样本没有经过相同的标准化处理,特征值的尺度可能会与训练数据不同,从而导致预测不准确。通过使用相同的 StandardScaler 对新样本进行标准化,可以确保特征值在相同的尺度上,保证模型的预测效果。

# 新样本数据
new_samples = [[5.1, 3.5, 1.4, 0.2], [6.7, 3.0, 5.2, 2.3]]# 将新样本数据转换为 DataFrame,并指定特征名称
new_samples_df = pd.DataFrame(new_samples, columns=iris.feature_names)# 标准化新样本
new_samples_scaled = scaler.transform(new_samples_df)  # 使用之前的标准化器 scaler 对新样本进行标准化处理,使其与训练数据具有相同的尺度# 预测新样本的类别
predictions = knn_best.predict(new_samples_scaled)  # 使用最佳模型 knn_best 对标准化后的新样本进行类别预测
print(f"新样本的预测类别: {predictions}")  # 打印新样本的预测类别

打印结果:

新样本的预测类别: [0 2]

打印结果显示新样本的预测类别分别为 [0, 2],即第一个新样本被预测为类别 0,第二个新样本被预测为类别 2。结合鸢尾花数据集的类别名称,这意味着:

  • 类别 0 对应的是 Iris-setosa
  • 类别 2 对应的是 Iris-virginica

3、项目源码

import matplotlib.pyplot as plt
import pandas as pd
import seaborn as snsfrom sklearn.datasets import load_iris
from sklearn.preprocessing import StandardScaler
from sklearn.model_selection import train_test_split, GridSearchCV
from sklearn.neighbors import KNeighborsClassifier
from sklearn.metrics import accuracy_score, classification_report, confusion_matrix# 加载数据集
iris = load_iris()  # 使用 load_iris 函数加载鸢尾花数据集,返回一个 Bunch 对象
data = pd.DataFrame(data=iris.data, columns=iris.feature_names)  # 将数据集的特征数据转换为 pandas DataFrame,并指定列名为特征名称
data['target'] = iris.target  # 在 DataFrame 中添加一列 'target',对应每个样本的目标标签
data['target_names'] = data['target'].apply(lambda x: iris.target_names[x])  # 添加一列 'target_names',通过映射 'target' 列的值来获取对应的目标名称# 查看数据
print(data.head())  # 查看数据集前五行数据
print('-')
print(data.info())  # 查看数据集的基本信息
print('-')
print(data.describe())  # 查看数据集的统计信息
print('-')# 绘制特征分布图
sns.pairplot(data, hue='target', markers=["o", "s", "D"])  # 使用 seaborn 库的 pairplot 函数绘制散点图矩阵,根据 'target' 列着色,并使用不同的标记
plt.show()  # 显示图形# 检查是否有缺失值
print(data.isnull().sum())  # 打印每列的缺失值数量,以检查数据集中是否存在缺失值# 标准化特征值
scaler = StandardScaler()  # 创建一个 StandardScaler 对象
data[iris.feature_names] = scaler.fit_transform(data[iris.feature_names])  # 对特征列进行标准化处理,使其均值为 0,标准差为 1# 查看标准化后的数据
print(data.head())  # 打印标准化后的数据集的前五行,查看标准化效果
print('-')# 分割数据集
X = data[iris.feature_names]  # 特征数据,包含所有特征列
y = data['target']  # 目标数据,包含目标标签
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3,random_state=42)  # 将数据集按 70% 训练集和 30% 测试集进行分割,设置随机种子为 42 以确保可重复性# 查看分割后的数据集大小
print(f"训练集大小: {X_train.shape[0]}, 测试集大小: {X_test.shape[0]}")  # 打印训练集和测试集的大小
print('-')# 初始化 KNN 分类器
knn = KNeighborsClassifier(n_neighbors=3)  # 创建一个 K 近邻分类器对象,设置近邻数为 3# 训练模型
knn.fit(X_train, y_train)     # 使用训练数据训练 K 近邻分类器模型# 预测测试集
y_pred = knn.predict(X_test)  # 使用训练好的模型对测试数据进行预测,得到预测标签# 评估模型
print(f"Accuracy: {accuracy_score(y_test, y_pred)}")                      # 计算并打印模型在测试集上的准确率
print('-')
print("Classification Report:\n", classification_report(y_test, y_pred))  # 打印分类报告,包括精确率、召回率、F1 分数等
print('-')
print("Confusion Matrix:\n", confusion_matrix(y_test, y_pred))            # 打印混淆矩阵,显示真实标签和预测标签之间的关系
print('-')# 定义参数范围
param_grid = {'n_neighbors': range(1, 20)}  # 创建一个参数字典,设置 'n_neighbors' 参数的取值范围为 1 到 19# 网格搜索
grid_search = GridSearchCV(KNeighborsClassifier(), param_grid, cv=5)  # 创建一个 GridSearchCV 对象,使用 KNeighborsClassifier 和定义的参数范围,设置交叉验证折数为 5
grid_search.fit(X_train, y_train)                                     # 使用训练数据进行网格搜索,以找到最佳参数组合# 最优参数
print(f"Best parameters: {grid_search.best_params_}")  # 打印通过网格搜索找到的最优参数
print('-')# 使用最优参数训练模型
knn_best = grid_search.best_estimator_  # 获取使用最优参数训练的最佳模型
y_pred_best = knn_best.predict(X_test)  # 使用最佳模型对测试数据进行预测# 评估模型
print(f"Accuracy(best): {accuracy_score(y_test, y_pred)}")                      # (优化后)计算并打印模型在测试集上的准确率
print('-')
print("Classification Report(best):\n", classification_report(y_test, y_pred))  # (优化后)打印分类报告,包括精确率、召回率、F1 分数等
print('-')
print("Confusion Matrix(best):\n", confusion_matrix(y_test, y_pred))            # (优化后)打印混淆矩阵,显示真实标签和预测标签之间的关系
print('-')# 新样本数据
new_samples = [[5.1, 3.5, 1.4, 0.2], [6.7, 3.0, 5.2, 2.3]]  # 定义新的样本数据,每个样本包含四个特征值# 将新样本数据转换为 DataFrame,并指定特征名称
new_samples_df = pd.DataFrame(new_samples, columns=iris.feature_names)# 标准化新样本
new_samples_scaled = scaler.transform(new_samples_df)  # 使用之前的标准化器 scaler 对新样本进行标准化处理,使其与训练数据具有相同的尺度# 预测新样本的类别
predictions = knn_best.predict(new_samples_scaled)  # 使用最佳模型 knn_best 对标准化后的新样本进行类别预测
print(f"新样本的预测类别: {predictions}")              # 打印新样本的预测类别

通过这段代码,我们展示了如何加载鸢尾花数据集、进行标准化处理、分割数据集、使用网格搜索优化 K 近邻分类器、训练模型、评估模型以及对新样本进行预测。最终的预测结果 [0, 2] 表明第一个新样本被预测为 Iris-setosa,第二个新样本被预测为 Iris-virginica,这验证了整个机器学习过程的正确性和有效性。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/diannao/26990.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

对象存储服务的加密特性

实现思路 加密特性的方案&#xff0c;涉及如下设计点&#xff1a; 密钥的用途加密的位置加密的算法加密密钥的使用加密密钥的管理 密钥的用途 密钥的用途分为管理密钥和数据密钥。 管理密钥用于加密数据密钥&#xff0c;需要定期更换&#xff0c;更换成本低&#xff1b;假如…

计算机游戏因为d3dcompiler_47.dll丢失无法启动怎么办?解决只要d3dcompiler_47.dll丢失无法启动游戏软件的方法

d3dcompiler_47.dll 是一个动态链接库文件&#xff0c;属于 Microsoft DirectX 的一部分&#xff0c;主要负责编译和运行 3D 图形程序。它是支持 Direct3D 功能的核心组件&#xff0c;Direct3D 是一种用于编程 3D 图形的 API&#xff0c;广泛应用于游戏和图形密集型应用程序中。…

Linux 如何查看磁盘空间占用

Linux 磁盘空间满会导致的问题 当 Linux 系统的磁盘空间满时&#xff0c;可能会导致一系列问题和不良表现&#xff0c;影响系统性能和稳定性。导致的问题可能是&#xff1a; 系统性能下降&#xff1a;磁盘空间不足会使得系统无法正常写入临时文件&#xff0c;影响系统操作和运…

html实现粘贴excel数据,在页面表格中复制

录入数据时&#xff0c;有时候需要把excel中的数据一条条粘贴到页面中&#xff0c;当数据量过多时&#xff0c;这种操作很令人崩溃。本篇文章实现了从excel复制好多行数据后,可在页面粘贴的功能 具体实现代码 <!DOCTYPE html> <html lang"en"> <head…

ArcGIS for js 4.x FeatureLayer 点选查询

示例&#xff1a; 代码如下&#xff1a; <template><view id"mapView"></view></template><script setup> import "arcgis/core/assets/esri/themes/light/main.css"; import Map from "arcgis/core/Map.js"; im…

SAP ABAP 编码规范

文章目录 前言一、案例介绍/笔者需求二、命名规范 a.类型&#xff08;Type&#xff09; b.全局&#xff08;Global&#xff09; c.局部&#xff08;Local&#xff09; d.子程序&#xff08;Perform&#xff09; e.函数…

11.QLoRA微调ChatGLM3-6B

实战 QLoRA 微调 ChatGLM3-6B 大模型 实战 PEFT 库 QLoRA ChatGLM3-6B 微调数据集 AdvertiseGen AdvertiseGen 数据集获取 使用ChatGLM3-6b Tokenizer处理数据 关于ig nore_label_id 的设置&#xff1a; 在许多自然语言处理和机器学习框架中&#xff0c; ig nore_label_id 被…

Julia 数学函数

Julia 数学函数 Julia 是一种高性能的动态编程语言,特别适合于数值计算和科学计算。在数学领域,Julia 提供了丰富的内置函数,这些函数涵盖了从基本运算到高级数学运算的各个方面。本文将详细介绍 Julia 中的数学函数,并提供一些示例,帮助读者更好地理解和使用这些函数。 …

在VSCode中使用Vim

在VSCode中使用Vim&#xff0c;主要涉及到Vim插件的安装和配置。以下是在VSCode中使用Vim的详细步骤&#xff1a; 1. 安装Vim插件 打开VSCode&#xff1a;首先&#xff0c;启动你的VSCode编辑器。进入扩展面板&#xff1a;在VSCode的左侧活动栏中&#xff0c;点击扩展图标&am…

计算机网络实验(鲁东大学)-cisco-逃课

逃课脚本4-1第二关 以4-1 第二关为例 点开图形化界面&#xff0c;点开工具箱 点复制粘贴 把逃课代码复制粘贴进&#xff0c;点击保存 回到图形化界面&#xff0c;任意位置打开终端 点击shiftctrlv&#xff08;其他方式粘贴进终端也可&#xff09;后敲击回车&#xff0c;在…

[大模型]Phi-3-mini-4k-Instruct Lora 微调

本节我们简要介绍如何基于 transformers、peft 等框架&#xff0c;对 Phi-3-mini-4k-Instruct 模型进行 Lora 微调。Lora 是一种高效微调方法&#xff0c;深入了解其原理可参见博客&#xff1a;知乎|深入浅出 Lora。 这个教程会在同目录下给大家提供一个 nodebook 文件&#x…

代码随想录算法训练营day6| 哈希表理论基础,242.有效的字母异位词,349. 两个数组的交集,202. 快乐数,1. 两数之和

day5休息 1. 哈希表理论基础 要了解哈希表的内部实现原理&#xff0c;哈希函数&#xff0c;哈希碰撞&#xff0c;以及常见哈希表的区别&#xff0c;数组&#xff0c;set 和map。 什么时候想到用哈希法&#xff0c;当我们遇到了要快速判断一个元素是否出现集合里的时候&#xf…

sslh一键在一个端口上运行多个服务(KALI工具系列二十三)

目录 1、KALI LINUX 简介 2、sslh工具简介 3、信息收集 3.1 目标主机IP&#xff08;win&#xff09; 3.2 KALI的IP 4、操作示例 4.1 监听特定端口 4.2 配置SSH 4.3 配置apache 4.4 配置sshl 4.5 验证配置 5、总结 1、KALI LINUX 简介 Kali Linux 是一个功能强大、…

基于线性核函数的SVM数据分类算法matlab仿真

目录 1.程序功能描述 2.测试软件版本以及运行结果展示 3.核心程序 4.本算法原理 5.完整程序 1.程序功能描述 基于线性核函数的SVM数据分类算法matlab仿真&#xff0c;通过程序产生随机的二维数据&#xff0c;然后通过SVM对数据进行分类&#xff0c;SVM通过编程实现&#x…

[大模型]Phi-3-mini-4k-instruct langchain 接入

环境准备 在 autodl 平台中租赁一个 3090 等 24G 显存的显卡机器&#xff0c;如下图所示镜像选择 PyTorch–>2.0.0–>3.8(ubuntu20.04)–>11.8 。 接下来打开刚刚租用服务器的 JupyterLab&#xff0c;并且打开其中的终端开始环境配置、模型下载和运行演示。 创建工作…

HTML具体应用介绍要点和难点以及优缺点分析

HTML(HyperText Markup Language)是超文本标记语言,它是用于创建网页的标准标记语言。HTML 描述了网页的结构和内容,但它并不包含如何显示这些内容的样式(如字体、颜色、布局等)或如何处理用户输入(如表单提交)的信息。这些通常由 CSS(层叠样式表)和 JavaScript 来实…

Java Android 静态内部类 以及优雅实现单例模式/避免handler内存泄漏

前言 Java 中的静态内部类(Static Nested Class)是定义在另一个类里面的一个静态类。它和普通的内部类有些区别,主要是静态内部类不需要依赖于外部类的实例就可以被创建和访问。这种类的特性使得它非常适合用来作为辅助类,用于支持外部类的功能。 特点以及使用场景 静态内…

云计算时代的等保测评挑战和应对策略

概述 云计算作为一种新兴的计算模式&#xff0c;以其灵活性、可伸缩性和经济性&#xff0c;正逐渐成为企业和组织构建信息系统的首选。然而&#xff0c;云计算环境下的信息安全等级保护&#xff08;以下简称“等保”&#xff09;测评面临着前所未有的挑战。本文将从等保测评的…

RabbitMQ实践——配置Prometheus和Grafana报表

大纲 启用rabbitmq_prometheus插件安装启动Prometheus创建用户下载并解压修改配置启动 安装启动grafana安装启动配置数据源 在《RabbitMQ实践——在Ubuntu上安装并启用管理后台》中我们已经安装成功RabbitMQ及其管理后台。在此基础上&#xff0c;我们将打通它和Prometheus、Gra…

PHP地方门户分类信息网站源码讯客分类信息系统源码(含手机版)

源码介绍 1.上传程序到网站根目录,访问http://域名/install/index.php 进行安装,不要直接打开网址&#xff0c;先直接安装; 2.安装完成后 后台恢复数据即可 默认帐号密码都是admin http://域名/admin/ 3.不要删除任何文件&#xff0c;因为删除文件或者修改代码可能造成错误 运…