深入了解决策树:机器学习中的经典算法

在这里插入图片描述

✅作者简介:2022年博客新星 第八。热爱国学的Java后端开发者,修心和技术同步精进。
🍎个人主页:Java Fans的博客
🍊个人信条:不迁怒,不贰过。小知识,大智慧。
💞当前专栏:Java案例分享专栏
✨特色专栏:国学周更-心性养成之路
🥭本文内容:深入了解决策树:机器学习中的经典算法

文章目录

    • 一、基本原理
      • 1.1 树的结构
      • 1.2 数据划分
      • 1.3 递归构建
      • 1.4 剪枝
      • 1.5 可解释性
    • 二、数学模型
      • 2.1 信息增益
      • 2.2 基尼指数
      • 2.3 均方误差
      • 2.4 决策过程的数学表达
      • 2.5 递归分裂的数学模型
      • 2.6 停止条件
    • 三、实现步骤
      • 3.1 数据预处理
        • 3.1.1 数据清洗
        • 3.1.2 特征选择与转换
      • 3.2 特征选择
        • 3.2.1 计算特征的评价指标
      • 3.3 数据划分
        • 3.3.1 划分数据集
      • 3.4 递归构建决策树
        • 3.4.1 停止条件
      • 3.5 剪枝
        • 3.5.1 预剪枝
        • 3.5.2 后剪枝
      • 3.6 模型评估
        • 3.6.1 交叉验证
        • 3.6.2 性能指标
      • 3.7 模型部署
    • 四、应用场景
      • 4.1 金融领域
      • 4.2 医疗领域
      • 4.3 市场营销领域
    • 五、总结

在这里插入图片描述

  在机器学习的众多算法中,决策树因其直观性和易解释性而备受青睐。作为一种经典的分类和回归工具,决策树通过树状结构将复杂的决策过程简化为一系列简单的判断,使得非专业人士也能轻松理解模型的工作原理。无论是在金融、医疗还是市场营销等领域,决策树都展现出了强大的应用潜力。

一、基本原理

  决策树是一种基于树形结构的模型,用于分类和回归任务。其基本原理是通过对数据进行特征划分,逐步构建出一个决策过程,最终达到对输入数据的预测。

1.1 树的结构

决策树由多个节点和边组成,主要包括:

  • 根节点(Root Node):树的起始节点,表示整个数据集。
  • 内部节点(Internal Nodes):表示特征的判断条件。
  • 叶子节点(Leaf Nodes):表示最终的分类结果或预测值。

1.2 数据划分

  选择特征后,决策树会根据特征的取值将数据集划分为多个子集。每个子集对应于特征的一个取值。划分的过程是递归进行的,直到满足停止条件,例如:

  • 达到最大树深度。
  • 节点样本数小于预设阈值。
  • 数据集的纯度达到一定标准。

1.3 递归构建

  决策树的构建过程是递归的。对于每个子集,重复特征选择和数据划分的过程,直到满足停止条件。这个过程可以用以下伪代码表示:

function build_tree(data):if stopping_condition_met(data):return create_leaf_node(data)best_feature = select_best_feature(data)tree = create_node(best_feature)for value in best_feature_values:subset = split_data(data, best_feature, value)child_node = build_tree(subset)tree.add_child(value, child_node)return tree

1.4 剪枝

  为了防止过拟合,决策树模型通常会进行剪枝。剪枝的目的是减少树的复杂度,通过去除一些不必要的节点来提高模型的泛化能力。剪枝可以分为两种类型:

  • 预剪枝(Pre-pruning):在构建树的过程中,提前停止分裂。
  • 后剪枝(Post-pruning):在树构建完成后,评估每个节点的贡献,去除不必要的节点。

1.5 可解释性

  决策树的一个重要优点是其可解释性。由于决策过程是通过一系列简单的判断规则构成的,用户可以很容易地理解模型的决策依据。这使得决策树在许多需要透明度的应用场景中非常受欢迎。

二、数学模型

决策树的数学模型主要涉及特征选择、数据划分和决策过程的数学表达。

2.1 信息增益

  信息增益是决策树中最常用的特征选择标准之一。它用于衡量通过某特征划分数据集后信息的不确定性减少程度。信息增益的计算基于熵的概念。

熵(Entropy)

  熵是信息论中的一个重要概念,用于衡量数据集的不确定性。对于一个数据集 D D D,其熵 H ( D ) H(D) H(D) 定义为:

H ( D ) = − ∑ i = 1 C p i log ⁡ 2 ( p i ) H(D) = - \sum_{i=1}^{C} p_i \log_2(p_i) H(D)=i=1Cpilog2(pi)

其中, C C C 是类别的数量, p i p_i pi 是类别 i i i 在数据集 D D D 中的概率。

信息增益的计算

  信息增益 I G ( D , X ) IG(D, X) IG(D,X) 可以通过以下公式计算:

I G ( D , X ) = H ( D ) − ∑ v ∈ V a l u e s ( X ) ∣ D v ∣ ∣ D ∣ H ( D v ) IG(D, X) = H(D) - \sum_{v \in Values(X)} \frac{|D_v|}{|D|} H(D_v) IG(D,X)=H(D)vValues(X)DDvH(Dv)

  • H ( D ) H(D) H(D) 是数据集 D D D 的熵。
  • V a l u e s ( X ) Values(X) Values(X) 是特征 X X X 的所有取值。
  • D v D_v Dv 是特征 X X X 取值为 v v v 的子集。

信息增益越大,表示特征 X X X 对于分类的贡献越大。

2.2 基尼指数

  基尼指数是另一种用于特征选择的标准,尤其在分类问题中被广泛使用。基尼指数用于衡量数据集的不纯度,值越小表示数据集越纯。

基尼指数的计算

对于数据集 D D D,基尼指数 G i n i ( D ) Gini(D) Gini(D) 的计算公式为:

G i n i ( D ) = 1 − ∑ i = 1 C p i 2 Gini(D) = 1 - \sum_{i=1}^{C} p_i^2 Gini(D)=1i=1Cpi2

其中, p i p_i pi 是类别 i i i 在数据集 D D D 中的概率。基尼指数越小,表示数据集的纯度越高。

2.3 均方误差

  在回归任务中,均方误差(Mean Squared Error, MSE)是常用的损失函数,用于衡量预测值与真实值之间的差异。均方误差的计算公式为:

M S E = 1 n ∑ j = 1 n ( y j − y ^ j ) 2 MSE = \frac{1}{n} \sum_{j=1}^{n} (y_j - \hat{y}_j)^2 MSE=n1j=1n(yjy^j)2

其中, n n n 是样本数量, y j y_j yj 是真实值, y ^ j \hat{y}_j y^j 是预测值。均方误差越小,表示模型的预测效果越好。

2.4 决策过程的数学表达

  决策树的决策过程可以用条件概率的方式进行表达。假设我们有一个特征集合 X = { X 1 , X 2 , … , X m } X = \{X_1, X_2, \ldots, X_m\} X={X1,X2,,Xm},对于输入样本 x x x,决策树通过一系列的条件判断来决定其类别 C C C。可以表示为:

P ( C ∣ X ) = P ( X ∣ C ) P ( C ) P ( X ) P(C | X) = \frac{P(X | C) P(C)}{P(X)} P(CX)=P(X)P(XC)P(C)

其中, P ( C ∣ X ) P(C | X) P(CX) 是在给定特征 X X X 的情况下,样本属于类别 C C C 的概率。

2.5 递归分裂的数学模型

在构建决策树时,递归分裂的过程可以用以下步骤表示:

  1. 选择最佳特征:通过计算信息增益或基尼指数,选择最佳特征 X i X_i Xi
  2. 划分数据集:根据特征 X i X_i Xi 的取值将数据集 D D D 划分为多个子集 D 1 , D 2 , … , D k D_1, D_2, \ldots, D_k D1,D2,,Dk
  3. 递归构建:对每个子集 D j D_j Dj,重复步骤 1 和 2,直到满足停止条件。

2.6 停止条件

在构建决策树的过程中,需要设定停止条件,以避免过拟合。常见的停止条件包括:

  • 达到最大树深度 d m a x d_{max} dmax
  • 节点样本数小于预设阈值 n m i n n_{min} nmin
  • 数据集的纯度达到一定标准(如基尼指数或熵小于某个阈值)。

三、实现步骤

  构建决策树的过程可以分为多个步骤,从数据预处理到模型评估,每个步骤都至关重要。

3.1 数据预处理

  数据预处理是构建决策树的第一步,主要包括以下几个方面:

3.1.1 数据清洗
  • 处理缺失值:缺失值可能会影响模型的性能。常见的处理方法包括:

    • 删除含有缺失值的样本。
    • 用均值、中位数或众数填充缺失值。
    • 使用插值法或其他算法预测缺失值。
  • 处理异常值:异常值可能会对模型产生负面影响。可以通过可视化方法(如箱线图)识别异常值,并决定是否删除或修正。

3.1.2 特征选择与转换
  • 选择特征:根据业务需求和数据分析,选择对目标变量有影响的特征。
  • 特征编码:对于分类特征,使用独热编码(One-Hot Encoding)或标签编码(Label Encoding)将其转换为数值形式。
  • 特征缩放:对于数值特征,可以进行标准化(Standardization)或归一化(Normalization),以提高模型的收敛速度。

3.2 特征选择

  特征选择是构建决策树的关键步骤,主要目的是选择最能区分不同类别的特征。常用的特征选择标准包括信息增益、基尼指数和均方误差。

3.2.1 计算特征的评价指标
  • 信息增益:计算每个特征的信息增益,选择信息增益最大的特征作为当前节点的分裂特征。
  • 基尼指数:计算每个特征的基尼指数,选择基尼指数最小的特征进行分裂。

3.3 数据划分

  根据选择的特征,将数据集划分为多个子集。每个子集对应于特征的一个取值。划分的过程是递归进行的,直到满足停止条件。

3.3.1 划分数据集
  • 根据特征的取值划分:对于每个特征 X i X_i Xi,根据其取值将数据集 D D D 划分为多个子集 D 1 , D 2 , … , D k D_1, D_2, \ldots, D_k D1,D2,,Dk

3.4 递归构建决策树

  在每个子集上递归地执行特征选择和数据划分的过程,直到满足停止条件。

3.4.1 停止条件
  • 达到最大树深度:设定一个最大深度 d m a x d_{max} dmax,当树的深度达到该值时停止分裂。
  • 节点样本数小于阈值:设定一个最小样本数 n m i n n_{min} nmin,当节点中的样本数小于该值时停止分裂。
  • 数据集的纯度达到标准:当数据集的熵或基尼指数小于设定的阈值时停止分裂。

3.5 剪枝

  剪枝是为了防止过拟合,提高模型的泛化能力。剪枝可以分为预剪枝和后剪枝。

3.5.1 预剪枝

  在构建树的过程中,提前停止分裂。当满足某个条件(如信息增益小于某个阈值)时,不再继续分裂。

3.5.2 后剪枝

在树构建完成后,评估每个节点的贡献,去除不必要的节点。后剪枝的步骤通常包括:

  1. 评估每个节点的性能:使用交叉验证等方法评估每个节点的性能。
  2. 去除不必要的节点:如果去除某个节点能够提高模型的性能,则进行剪枝。

3.6 模型评估

  模型评估是检验决策树性能的重要步骤,常用的方法包括:

3.6.1 交叉验证

  使用交叉验证(如 K 折交叉验证)来评估模型的泛化能力。将数据集划分为 K 个子集,依次使用 K-1 个子集进行训练,剩下的一个子集进行测试。

3.6.2 性能指标

根据任务类型选择合适的性能指标进行评估:

  • 分类任务:常用指标包括准确率(Accuracy)、精确率(Precision)、召回率(Recall)、F1 分数等。
  • 回归任务:常用指标包括均方误差(MSE)、均绝对误差(MAE)、决定系数(R²)等。

3.7 模型部署

  在模型评估通过后,可以将决策树模型部署到生产环境中,进行实际应用。部署时需要考虑模型的可维护性和可扩展性。

四、应用场景

决策树因其直观性和易解释性,在多个领域得到了广泛应用。以下将详细阐述决策树在金融、医疗和市场营销等领域的应用场景,并结合案例代码进行说明。

4.1 金融领域

信用评分

  在金融行业,决策树可以用于信用评分模型,帮助银行和金融机构评估借款人的信用风险。通过分析借款人的历史数据(如收入、信用历史、负债情况等),决策树能够预测其违约的可能性。

案例代码:

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier
from sklearn.metrics import accuracy_score, classification_report# 示例数据:借款人信息
data = {'Income': [50000, 60000, 45000, 80000, 30000, 70000],'Credit_History': [1, 1, 0, 1, 0, 1],'Debt': [20000, 30000, 25000, 40000, 15000, 35000],'Default': [0, 0, 1, 0, 1, 0]  # 0: 未违约, 1: 违约
}
df = pd.DataFrame(data)# 数据预处理
X = df[['Income', 'Credit_History', 'Debt']]
y = df['Default']# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 创建决策树分类器
clf = DecisionTreeClassifier(criterion='entropy', max_depth=3)
clf.fit(X_train, y_train)# 预测
y_pred = clf.predict(X_test)# 评估模型
accuracy = accuracy_score(y_test, y_pred)
print(f'信用评分模型准确率: {accuracy:.2f}')
print(classification_report(y_test, y_pred))

风险评估

  在金融行业,决策树可以用于风险评估,帮助银行和金融机构评估借款人的信用风险。通过分析借款人的历史数据(如收入、信用历史、负债情况等),决策树能够预测其违约的可能性。

案例代码:

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier
from sklearn.metrics import accuracy_score, classification_report# 示例数据:借款人信息
data = {'Income': [50000, 60000, 45000, 80000, 30000, 70000],'Credit_History': [1, 1, 0, 1, 0, 1],'Debt': [20000, 30000, 25000, 40000, 15000, 35000],'Default': [0, 0, 1, 0, 1, 0]  # 0: 未违约, 1: 违约
}
df = pd.DataFrame(data)# 数据预处理
X = df[['Income', 'Credit_History', 'Debt']]
y = df['Default']# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 创建决策树分类器
clf = DecisionTreeClassifier(criterion='entropy', max_depth=3)
clf.fit(X_train, y_train)# 预测
y_pred = clf.predict(X_test)# 评估模型
accuracy = accuracy_score(y_test, y_pred)
print(f'信用风险评估模型准确率: {accuracy:.2f}')
print(classification_report(y_test, y_pred))

4.2 医疗领域

疾病诊断

  在医疗领域,决策树可以用于疾病诊断,通过分析患者的症状、体征和历史病历,帮助医生做出诊断决策。例如,决策树可以用于预测患者是否患有糖尿病、心脏病等。

案例代码:

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier
from sklearn.metrics import accuracy_score, classification_report# 示例数据:患者信息
data = {'Age': [25, 45, 35, 50, 23, 60],'BMI': [22.5, 28.0, 26.5, 30.0, 21.0, 32.5],'Blood_Pressure': [120, 140, 130, 150, 110, 160],'Diabetes': [0, 1, 0, 1, 0, 1]  # 0: 不患病, 1: 患病
}
df = pd.DataFrame(data)# 数据预处理
X = df[['Age', 'BMI', 'Blood_Pressure']]
y = df['Diabetes']# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 创建决策树分类器
clf = DecisionTreeClassifier(criterion='gini', max_depth=3)
clf.fit(X_train, y_train)# 预测
y_pred = clf.predict(X_test)# 评估模型
accuracy = accuracy_score(y_test, y_pred)
print(f'疾病诊断模型准确率: {accuracy:.2f}')
print(classification_report(y_test, y_pred))

患者分类

  在医疗领域,决策树可以用于患者分类,通过分析患者的症状、体征和历史病历,帮助医生做出准确的诊断。例如,决策树可以用于预测患者是否患有糖尿病、心脏病等。

案例代码:

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier
from sklearn.metrics import accuracy_score, classification_report# 示例数据:患者信息
data = {'Age': [25, 45, 35, 50, 23, 60],'BMI': [22.5, 28.0, 26.5, 30.0, 21.0, 32.5],'Blood_Pressure': [120, 140, 130, 150, 110, 160],'Diabetes': [0, 1, 0, 1, 0, 1]  # 0: 不患病, 1: 患病
}
df = pd.DataFrame(data)# 数据预处理
X = df[['Age', 'BMI', 'Blood_Pressure']]
y = df['Diabetes']# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 创建决策树分类器
clf = DecisionTreeClassifier(criterion='gini', max_depth=3)
clf.fit(X_train, y_train)# 预测
y_pred = clf.predict(X_test)# 评估模型
accuracy = accuracy_score(y_test, y_pred)
print(f'患者分类模型准确率: {accuracy:.2f}')
print(classification_report(y_test, y_pred))

4.3 市场营销领域

客户细分

  在市场营销中,决策树可以用于客户细分,通过分析客户的购买行为、偏好和人口统计特征,帮助企业制定更有针对性的营销策略。例如,企业可以根据客户的年龄、收入和购买历史将客户分为不同的群体。

案例代码:

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier
from sklearn.metrics import accuracy_score, classification_report# 示例数据:客户信息
data = {'Age': [22, 35, 45, 23, 54, 33],'Income': [30000, 60000, 80000, 25000, 90000, 50000],'Purchase_History': [1, 0, 1, 0, 1, 1],  # 0: 未购买, 1: 已购买'Segment': [0, 1, 1, 0, 1, 1]  # 0: 低价值客户, 1: 高价值客户
}
df = pd.DataFrame(data)# 数据预处理
X = df[['Age', 'Income', 'Purchase_History']]
y = df['Segment']# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 创建决策树分类器
clf = DecisionTreeClassifier(criterion='entropy', max_depth=3)
clf.fit(X_train, y_train)# 预测
y_pred = clf.predict(X_test)# 评估模型
accuracy = accuracy_score(y_test, y_pred)
print(f'客户细分模型准确率: {accuracy:.2f}')
print(classification_report(y_test, y_pred))

购买预测

  在市场营销中,决策树可以用于购买预测,通过分析客户的购买行为、偏好和人口统计特征,帮助企业识别潜在的高价值客户。这使得企业能够制定更有针对性的营销策略。

案例代码:

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier
from sklearn.metrics import accuracy_score, classification_report# 示例数据:客户信息
data = {'Age': [22, 35, 45, 23, 54, 33],'Income': [30000, 60000, 80000, 25000, 90000, 50000],'Purchase_History': [1, 0, 1, 0, 1, 1],  # 0: 未购买, 1: 已购买'Segment': [0, 1, 1, 0, 1, 1]  # 0: 低价值客户, 1: 高价值客户
}
df = pd.DataFrame(data)# 数据预处理
X = df[['Age', 'Income', 'Purchase_History']]
y = df['Segment']# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 创建决策树分类器
clf = DecisionTreeClassifier(criterion='entropy', max_depth=3)
clf.fit(X_train, y_train)# 预测
y_pred = clf.predict(X_test)# 评估模型
accuracy = accuracy_score(y_test, y_pred)
print(f'购买预测模型准确率: {accuracy:.2f}')
print(classification_report(y_test, y_pred))

五、总结

  决策树作为一种经典的机器学习算法,以其直观性和易解释性在多个领域得到了广泛应用。通过对数据的特征选择和递归划分,决策树能够有效地进行分类和回归任务。在金融领域,决策树帮助机构评估信用风险;在医疗领域,它为疾病诊断提供了有力支持;在市场营销中,决策树则助力企业进行客户细分和精准营销。

  尽管决策树具有许多优点,但也存在过拟合和对噪声敏感等缺点。因此,在实际应用中,合理的特征选择、剪枝策略和模型评估至关重要。随着数据科学和人工智能技术的不断发展,决策树仍将继续发挥其重要作用,帮助各行业从海量数据中提取有价值的信息,做出更科学的决策。希望本文能够为您深入理解决策树的原理、实现步骤及应用场景提供有益的参考与启发。


  码文不易,本篇文章就介绍到这里,如果想要学习更多Java系列知识点击关注博主,博主带你零基础学习Java知识。与此同时,对于日常生活有困扰的朋友,欢迎阅读我的第四栏目:《国学周更—心性养成之路》,学习技术的同时,我们也注重了心性的养成。

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/58712.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

11月上海月赛题解报告(丙组)T1

棋盘距离 内存限制: 256 Mb时间限制: 1000 ms 题目描述 在一个棋盘上,有两颗棋子,一颗棋子在第 a 行第 b 列,另一个颗棋子在第 x 行第 y 列。 每一步,可以选择一个棋子沿行方向移动一个单位,或沿列方向移动一个单位&am…

基于Java Web的传智播客crm企业管理系统的设计与实现

项目描述 临近学期结束,还是毕业设计,你还在做java程序网络编程,期末作业,老师的作业要求觉得大了吗?不知道毕业设计该怎么办?网页功能的数量是否太多?没有合适的类型或系统?等等。这里根据疫情当下,你想解决的问…

【JAVA】Java基础—面向对象编程:类与对象-类的结构(属性、方法、构造方法)

属性用于描述对象的状态,通常以变量的形式存在。 方法定义了对象的行为,可以执行特定的操作或计算。 构造方法用于初始化对象,可以根据需要重载以支持不同的初始化方式。 1. 属性(字段) 属性是类的状态或特征&…

如何学习C++游戏开发

学习C游戏开发是一个涉及多个领域的复杂过程,包括编程、游戏设计、图形学等。 1. **学习C基础**: - 掌握C的基本语法和面向对象编程。 - 学习C标准库,特别是STL(标准模板库)。 2. **理解游戏开发概念**&#xf…

RabbitMQ 篇-深入了解 RabbitMQ 安装以及 SpringAMQP 的基础使用(声明队列和交换机、发送接收消息、配置 JSON 消息转化器)

🔥博客主页: 【小扳_-CSDN博客】 ❤感谢大家点赞👍收藏⭐评论✍ 文章目录 1.0 RabbitMQ 初识 1.1 RabbitMQ 安装 2.0 数据隔离 2.1 用户管理 2.2 virtual host 虚拟主机 3.0 SpringAMQP 3.1 RabbitMQ 配置 3.2 发送消息 3.3 接收消息 3.4 Wor…

基础归一化方法 数学理论及其matlab代码

归一化是一种简化计算的方式,即将有量纲的表达式,经过变换,化为无量纲的表达式,成为标量。在多种计算中都经常用到这种方法。以下是常见的基础归一化方法:Min-Max 归一化,Z-Score 归一化、小数定标归一化、…

计算机视觉算法

计算机视觉算法是人工智能领域中的重要技术之一,它使计算机能够“看”并理解图像或视频内容。以下是对计算机视觉算法的详细介绍: 一、定义与目标 计算机视觉算法是一组计算模型和数学方法的组合,旨在让计算机能够自动解析图像和视频中的信息…

【Elasticsearch】Elasticsearch集成Spring Boot

Elasticsearch集成Spring Boot 概述 Spring Data Elasticsearch 介绍一、环境初始化二、实战入门1、定义数据实体类2、定义Dao层3、框架集成-SpringData-集成测试-索引操作4、框架集成-SpringData-集成测试-文档操作5、框架集成-SpringData-集成测试-文档搜索 概述 Spring Data…

Kubernetes 调度器调度策略的资源分配不均问题如何解决?

Kubernetes 调度器调度策略的资源分配不均问题如何解决? 在 Kubernetes 中,调度器调度策略可能会导致资源分配不均的问题,可以通过以下几种方法来解决: 一、资源配额和限制 设置命名空间资源配额: 可以为不同的命名空间设置资源配额,限制该命名空间可以使用的 CPU、内存…

漫漫数学之旅038

文章目录 经典格言数学习题古今评注名人小传 - 古斯塔夫福楼拜 经典格言 诗歌是一门像几何一样严格的科学。——古斯塔夫福楼拜(Gustave Flaubert) 古斯塔夫福楼拜将诗歌比作几何学,强调了诗歌创作的严谨性。他认为诗歌不仅仅是情感的流露&a…

前端md5加密

npm下载 npm install --save ts-md5页面引入 import { Md5 } from ts-md5使用 const md5PwdMd5.hashStr("123456")md5Pwd(加密后的数据) .toUpperCase()方法转大写

植物神经紊乱不用怕,这些维生素来帮你!

在现代快节奏的生活中,植物神经紊乱已成为一种常见的健康问题。你是否经常感到焦虑、失眠、疲劳,甚至消化不良?这些可能都是植物神经紊乱的表现。幸运的是,通过适当补充维生素,我们可以有效缓解症状,恢复身…

华为ENSP--ISIS路由协议

项目背景 为了确保资源共享、办公自动化和节省人力成本,公司E申请两条专线将深圳总部和广州、北京两家分公司网络连接起来。公司原来运行OSFP路由协议,现打算迁移到IS-IS路由协议,张同学正在该公司实习,为了提高实际工作的准确性和…

二分查找习题篇(下)

二分查找习题篇(下) 1.山脉数组的峰顶索引 题目描述: 给定一个长度为 n 的整数 山脉 数组 arr ,其中的值递增到一个 峰值元素 然后递减。 返回峰值元素的下标。 你必须设计并实现时间复杂度为 O(log(n)) 的解决方案。 示例 1: 输入&#xf…

playground.tensorflow神经网络可视化工具

playground.tensorflow 是一个可视化工具,用于帮助用户理解深度学习和神经网络的基本原理。它通过交互式界面使用户能够构建、训练和可视化简单的神经网络模型。以下是一些主要的数学模型和公式原理,它们在这个平台中被应用: 1. 线性模型 线…

一篇文章让你明白Go语言之数组的定义与用法

Golang数组 1. 数组的声明示例 2. 数组的初始化初始化示例 3. 访问和修改数组元素访问和修改元素的示例 4. 数组的遍历遍历数组的示例 5. 多维数组二维数组的示例 6. 数组是值类型示例:数组的值传递 7. 数组与切片的区别总结 在 Go 语言中,数组是一种固定…

LSM-TREE和SSTable

一、什么是LSM-TREE LSM Tree 是一种高效的写优化数据结构,专门用于处理大量写入操作 在一些写多读少的场景,为了加快写磁盘的速度,提出使用日志文件追加顺序写,加快写的速度,减少随机读写。但是日志文件只能遍历查询…

SDL线程

文章目录 SDL线程相关 SDL线程相关 SDL线程创建:SDL_CreateThreadSDL线程等待: SDL_WaitThreadSDL互斥锁 :SDL_CreateMutex/SDL_DestoryMutexSDL锁定互斥: SDL_LockMutex/SDL_UnlockMutexSDL条件变量:SDL_CreateCond/SDL_DestoryCondSDL条件变量 等待通知: SDL_Con…

Vite与Vue Cli的区别与详解

它们的功能非常相似,都是提供基本项目脚手架和开发服务器的构建工具。 主要区别 Vite在开发环境下基于浏览器原生ES6 Modules提供功能支持,在生产环境下基于Rollup打包; Vue Cli不区分环境,都是基于Webpack。 在生产环境下&…

STM32实现串口接收不定长数据

原理 STM32实现串口接收不定长数据,主要靠的就是串口空闲(idle)中断,此中断的触发条件与接收的字节数无关,只有当Rx引脚无后续数据进入时(串口空闲时),认为这时候代表一个数据包接收完成了&…