深入了解决策树:机器学习中的经典算法

在这里插入图片描述

✅作者简介:2022年博客新星 第八。热爱国学的Java后端开发者,修心和技术同步精进。
🍎个人主页:Java Fans的博客
🍊个人信条:不迁怒,不贰过。小知识,大智慧。
💞当前专栏:Java案例分享专栏
✨特色专栏:国学周更-心性养成之路
🥭本文内容:深入了解决策树:机器学习中的经典算法

文章目录

    • 一、基本原理
      • 1.1 树的结构
      • 1.2 数据划分
      • 1.3 递归构建
      • 1.4 剪枝
      • 1.5 可解释性
    • 二、数学模型
      • 2.1 信息增益
      • 2.2 基尼指数
      • 2.3 均方误差
      • 2.4 决策过程的数学表达
      • 2.5 递归分裂的数学模型
      • 2.6 停止条件
    • 三、实现步骤
      • 3.1 数据预处理
        • 3.1.1 数据清洗
        • 3.1.2 特征选择与转换
      • 3.2 特征选择
        • 3.2.1 计算特征的评价指标
      • 3.3 数据划分
        • 3.3.1 划分数据集
      • 3.4 递归构建决策树
        • 3.4.1 停止条件
      • 3.5 剪枝
        • 3.5.1 预剪枝
        • 3.5.2 后剪枝
      • 3.6 模型评估
        • 3.6.1 交叉验证
        • 3.6.2 性能指标
      • 3.7 模型部署
    • 四、应用场景
      • 4.1 金融领域
      • 4.2 医疗领域
      • 4.3 市场营销领域
    • 五、总结

在这里插入图片描述

  在机器学习的众多算法中,决策树因其直观性和易解释性而备受青睐。作为一种经典的分类和回归工具,决策树通过树状结构将复杂的决策过程简化为一系列简单的判断,使得非专业人士也能轻松理解模型的工作原理。无论是在金融、医疗还是市场营销等领域,决策树都展现出了强大的应用潜力。

一、基本原理

  决策树是一种基于树形结构的模型,用于分类和回归任务。其基本原理是通过对数据进行特征划分,逐步构建出一个决策过程,最终达到对输入数据的预测。

1.1 树的结构

决策树由多个节点和边组成,主要包括:

  • 根节点(Root Node):树的起始节点,表示整个数据集。
  • 内部节点(Internal Nodes):表示特征的判断条件。
  • 叶子节点(Leaf Nodes):表示最终的分类结果或预测值。

1.2 数据划分

  选择特征后,决策树会根据特征的取值将数据集划分为多个子集。每个子集对应于特征的一个取值。划分的过程是递归进行的,直到满足停止条件,例如:

  • 达到最大树深度。
  • 节点样本数小于预设阈值。
  • 数据集的纯度达到一定标准。

1.3 递归构建

  决策树的构建过程是递归的。对于每个子集,重复特征选择和数据划分的过程,直到满足停止条件。这个过程可以用以下伪代码表示:

function build_tree(data):if stopping_condition_met(data):return create_leaf_node(data)best_feature = select_best_feature(data)tree = create_node(best_feature)for value in best_feature_values:subset = split_data(data, best_feature, value)child_node = build_tree(subset)tree.add_child(value, child_node)return tree

1.4 剪枝

  为了防止过拟合,决策树模型通常会进行剪枝。剪枝的目的是减少树的复杂度,通过去除一些不必要的节点来提高模型的泛化能力。剪枝可以分为两种类型:

  • 预剪枝(Pre-pruning):在构建树的过程中,提前停止分裂。
  • 后剪枝(Post-pruning):在树构建完成后,评估每个节点的贡献,去除不必要的节点。

1.5 可解释性

  决策树的一个重要优点是其可解释性。由于决策过程是通过一系列简单的判断规则构成的,用户可以很容易地理解模型的决策依据。这使得决策树在许多需要透明度的应用场景中非常受欢迎。

二、数学模型

决策树的数学模型主要涉及特征选择、数据划分和决策过程的数学表达。

2.1 信息增益

  信息增益是决策树中最常用的特征选择标准之一。它用于衡量通过某特征划分数据集后信息的不确定性减少程度。信息增益的计算基于熵的概念。

熵(Entropy)

  熵是信息论中的一个重要概念,用于衡量数据集的不确定性。对于一个数据集 D D D,其熵 H ( D ) H(D) H(D) 定义为:

H ( D ) = − ∑ i = 1 C p i log ⁡ 2 ( p i ) H(D) = - \sum_{i=1}^{C} p_i \log_2(p_i) H(D)=i=1Cpilog2(pi)

其中, C C C 是类别的数量, p i p_i pi 是类别 i i i 在数据集 D D D 中的概率。

信息增益的计算

  信息增益 I G ( D , X ) IG(D, X) IG(D,X) 可以通过以下公式计算:

I G ( D , X ) = H ( D ) − ∑ v ∈ V a l u e s ( X ) ∣ D v ∣ ∣ D ∣ H ( D v ) IG(D, X) = H(D) - \sum_{v \in Values(X)} \frac{|D_v|}{|D|} H(D_v) IG(D,X)=H(D)vValues(X)DDvH(Dv)

  • H ( D ) H(D) H(D) 是数据集 D D D 的熵。
  • V a l u e s ( X ) Values(X) Values(X) 是特征 X X X 的所有取值。
  • D v D_v Dv 是特征 X X X 取值为 v v v 的子集。

信息增益越大,表示特征 X X X 对于分类的贡献越大。

2.2 基尼指数

  基尼指数是另一种用于特征选择的标准,尤其在分类问题中被广泛使用。基尼指数用于衡量数据集的不纯度,值越小表示数据集越纯。

基尼指数的计算

对于数据集 D D D,基尼指数 G i n i ( D ) Gini(D) Gini(D) 的计算公式为:

G i n i ( D ) = 1 − ∑ i = 1 C p i 2 Gini(D) = 1 - \sum_{i=1}^{C} p_i^2 Gini(D)=1i=1Cpi2

其中, p i p_i pi 是类别 i i i 在数据集 D D D 中的概率。基尼指数越小,表示数据集的纯度越高。

2.3 均方误差

  在回归任务中,均方误差(Mean Squared Error, MSE)是常用的损失函数,用于衡量预测值与真实值之间的差异。均方误差的计算公式为:

M S E = 1 n ∑ j = 1 n ( y j − y ^ j ) 2 MSE = \frac{1}{n} \sum_{j=1}^{n} (y_j - \hat{y}_j)^2 MSE=n1j=1n(yjy^j)2

其中, n n n 是样本数量, y j y_j yj 是真实值, y ^ j \hat{y}_j y^j 是预测值。均方误差越小,表示模型的预测效果越好。

2.4 决策过程的数学表达

  决策树的决策过程可以用条件概率的方式进行表达。假设我们有一个特征集合 X = { X 1 , X 2 , … , X m } X = \{X_1, X_2, \ldots, X_m\} X={X1,X2,,Xm},对于输入样本 x x x,决策树通过一系列的条件判断来决定其类别 C C C。可以表示为:

P ( C ∣ X ) = P ( X ∣ C ) P ( C ) P ( X ) P(C | X) = \frac{P(X | C) P(C)}{P(X)} P(CX)=P(X)P(XC)P(C)

其中, P ( C ∣ X ) P(C | X) P(CX) 是在给定特征 X X X 的情况下,样本属于类别 C C C 的概率。

2.5 递归分裂的数学模型

在构建决策树时,递归分裂的过程可以用以下步骤表示:

  1. 选择最佳特征:通过计算信息增益或基尼指数,选择最佳特征 X i X_i Xi
  2. 划分数据集:根据特征 X i X_i Xi 的取值将数据集 D D D 划分为多个子集 D 1 , D 2 , … , D k D_1, D_2, \ldots, D_k D1,D2,,Dk
  3. 递归构建:对每个子集 D j D_j Dj,重复步骤 1 和 2,直到满足停止条件。

2.6 停止条件

在构建决策树的过程中,需要设定停止条件,以避免过拟合。常见的停止条件包括:

  • 达到最大树深度 d m a x d_{max} dmax
  • 节点样本数小于预设阈值 n m i n n_{min} nmin
  • 数据集的纯度达到一定标准(如基尼指数或熵小于某个阈值)。

三、实现步骤

  构建决策树的过程可以分为多个步骤,从数据预处理到模型评估,每个步骤都至关重要。

3.1 数据预处理

  数据预处理是构建决策树的第一步,主要包括以下几个方面:

3.1.1 数据清洗
  • 处理缺失值:缺失值可能会影响模型的性能。常见的处理方法包括:

    • 删除含有缺失值的样本。
    • 用均值、中位数或众数填充缺失值。
    • 使用插值法或其他算法预测缺失值。
  • 处理异常值:异常值可能会对模型产生负面影响。可以通过可视化方法(如箱线图)识别异常值,并决定是否删除或修正。

3.1.2 特征选择与转换
  • 选择特征:根据业务需求和数据分析,选择对目标变量有影响的特征。
  • 特征编码:对于分类特征,使用独热编码(One-Hot Encoding)或标签编码(Label Encoding)将其转换为数值形式。
  • 特征缩放:对于数值特征,可以进行标准化(Standardization)或归一化(Normalization),以提高模型的收敛速度。

3.2 特征选择

  特征选择是构建决策树的关键步骤,主要目的是选择最能区分不同类别的特征。常用的特征选择标准包括信息增益、基尼指数和均方误差。

3.2.1 计算特征的评价指标
  • 信息增益:计算每个特征的信息增益,选择信息增益最大的特征作为当前节点的分裂特征。
  • 基尼指数:计算每个特征的基尼指数,选择基尼指数最小的特征进行分裂。

3.3 数据划分

  根据选择的特征,将数据集划分为多个子集。每个子集对应于特征的一个取值。划分的过程是递归进行的,直到满足停止条件。

3.3.1 划分数据集
  • 根据特征的取值划分:对于每个特征 X i X_i Xi,根据其取值将数据集 D D D 划分为多个子集 D 1 , D 2 , … , D k D_1, D_2, \ldots, D_k D1,D2,,Dk

3.4 递归构建决策树

  在每个子集上递归地执行特征选择和数据划分的过程,直到满足停止条件。

3.4.1 停止条件
  • 达到最大树深度:设定一个最大深度 d m a x d_{max} dmax,当树的深度达到该值时停止分裂。
  • 节点样本数小于阈值:设定一个最小样本数 n m i n n_{min} nmin,当节点中的样本数小于该值时停止分裂。
  • 数据集的纯度达到标准:当数据集的熵或基尼指数小于设定的阈值时停止分裂。

3.5 剪枝

  剪枝是为了防止过拟合,提高模型的泛化能力。剪枝可以分为预剪枝和后剪枝。

3.5.1 预剪枝

  在构建树的过程中,提前停止分裂。当满足某个条件(如信息增益小于某个阈值)时,不再继续分裂。

3.5.2 后剪枝

在树构建完成后,评估每个节点的贡献,去除不必要的节点。后剪枝的步骤通常包括:

  1. 评估每个节点的性能:使用交叉验证等方法评估每个节点的性能。
  2. 去除不必要的节点:如果去除某个节点能够提高模型的性能,则进行剪枝。

3.6 模型评估

  模型评估是检验决策树性能的重要步骤,常用的方法包括:

3.6.1 交叉验证

  使用交叉验证(如 K 折交叉验证)来评估模型的泛化能力。将数据集划分为 K 个子集,依次使用 K-1 个子集进行训练,剩下的一个子集进行测试。

3.6.2 性能指标

根据任务类型选择合适的性能指标进行评估:

  • 分类任务:常用指标包括准确率(Accuracy)、精确率(Precision)、召回率(Recall)、F1 分数等。
  • 回归任务:常用指标包括均方误差(MSE)、均绝对误差(MAE)、决定系数(R²)等。

3.7 模型部署

  在模型评估通过后,可以将决策树模型部署到生产环境中,进行实际应用。部署时需要考虑模型的可维护性和可扩展性。

四、应用场景

决策树因其直观性和易解释性,在多个领域得到了广泛应用。以下将详细阐述决策树在金融、医疗和市场营销等领域的应用场景,并结合案例代码进行说明。

4.1 金融领域

信用评分

  在金融行业,决策树可以用于信用评分模型,帮助银行和金融机构评估借款人的信用风险。通过分析借款人的历史数据(如收入、信用历史、负债情况等),决策树能够预测其违约的可能性。

案例代码:

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier
from sklearn.metrics import accuracy_score, classification_report# 示例数据:借款人信息
data = {'Income': [50000, 60000, 45000, 80000, 30000, 70000],'Credit_History': [1, 1, 0, 1, 0, 1],'Debt': [20000, 30000, 25000, 40000, 15000, 35000],'Default': [0, 0, 1, 0, 1, 0]  # 0: 未违约, 1: 违约
}
df = pd.DataFrame(data)# 数据预处理
X = df[['Income', 'Credit_History', 'Debt']]
y = df['Default']# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 创建决策树分类器
clf = DecisionTreeClassifier(criterion='entropy', max_depth=3)
clf.fit(X_train, y_train)# 预测
y_pred = clf.predict(X_test)# 评估模型
accuracy = accuracy_score(y_test, y_pred)
print(f'信用评分模型准确率: {accuracy:.2f}')
print(classification_report(y_test, y_pred))

风险评估

  在金融行业,决策树可以用于风险评估,帮助银行和金融机构评估借款人的信用风险。通过分析借款人的历史数据(如收入、信用历史、负债情况等),决策树能够预测其违约的可能性。

案例代码:

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier
from sklearn.metrics import accuracy_score, classification_report# 示例数据:借款人信息
data = {'Income': [50000, 60000, 45000, 80000, 30000, 70000],'Credit_History': [1, 1, 0, 1, 0, 1],'Debt': [20000, 30000, 25000, 40000, 15000, 35000],'Default': [0, 0, 1, 0, 1, 0]  # 0: 未违约, 1: 违约
}
df = pd.DataFrame(data)# 数据预处理
X = df[['Income', 'Credit_History', 'Debt']]
y = df['Default']# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 创建决策树分类器
clf = DecisionTreeClassifier(criterion='entropy', max_depth=3)
clf.fit(X_train, y_train)# 预测
y_pred = clf.predict(X_test)# 评估模型
accuracy = accuracy_score(y_test, y_pred)
print(f'信用风险评估模型准确率: {accuracy:.2f}')
print(classification_report(y_test, y_pred))

4.2 医疗领域

疾病诊断

  在医疗领域,决策树可以用于疾病诊断,通过分析患者的症状、体征和历史病历,帮助医生做出诊断决策。例如,决策树可以用于预测患者是否患有糖尿病、心脏病等。

案例代码:

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier
from sklearn.metrics import accuracy_score, classification_report# 示例数据:患者信息
data = {'Age': [25, 45, 35, 50, 23, 60],'BMI': [22.5, 28.0, 26.5, 30.0, 21.0, 32.5],'Blood_Pressure': [120, 140, 130, 150, 110, 160],'Diabetes': [0, 1, 0, 1, 0, 1]  # 0: 不患病, 1: 患病
}
df = pd.DataFrame(data)# 数据预处理
X = df[['Age', 'BMI', 'Blood_Pressure']]
y = df['Diabetes']# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 创建决策树分类器
clf = DecisionTreeClassifier(criterion='gini', max_depth=3)
clf.fit(X_train, y_train)# 预测
y_pred = clf.predict(X_test)# 评估模型
accuracy = accuracy_score(y_test, y_pred)
print(f'疾病诊断模型准确率: {accuracy:.2f}')
print(classification_report(y_test, y_pred))

患者分类

  在医疗领域,决策树可以用于患者分类,通过分析患者的症状、体征和历史病历,帮助医生做出准确的诊断。例如,决策树可以用于预测患者是否患有糖尿病、心脏病等。

案例代码:

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier
from sklearn.metrics import accuracy_score, classification_report# 示例数据:患者信息
data = {'Age': [25, 45, 35, 50, 23, 60],'BMI': [22.5, 28.0, 26.5, 30.0, 21.0, 32.5],'Blood_Pressure': [120, 140, 130, 150, 110, 160],'Diabetes': [0, 1, 0, 1, 0, 1]  # 0: 不患病, 1: 患病
}
df = pd.DataFrame(data)# 数据预处理
X = df[['Age', 'BMI', 'Blood_Pressure']]
y = df['Diabetes']# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 创建决策树分类器
clf = DecisionTreeClassifier(criterion='gini', max_depth=3)
clf.fit(X_train, y_train)# 预测
y_pred = clf.predict(X_test)# 评估模型
accuracy = accuracy_score(y_test, y_pred)
print(f'患者分类模型准确率: {accuracy:.2f}')
print(classification_report(y_test, y_pred))

4.3 市场营销领域

客户细分

  在市场营销中,决策树可以用于客户细分,通过分析客户的购买行为、偏好和人口统计特征,帮助企业制定更有针对性的营销策略。例如,企业可以根据客户的年龄、收入和购买历史将客户分为不同的群体。

案例代码:

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier
from sklearn.metrics import accuracy_score, classification_report# 示例数据:客户信息
data = {'Age': [22, 35, 45, 23, 54, 33],'Income': [30000, 60000, 80000, 25000, 90000, 50000],'Purchase_History': [1, 0, 1, 0, 1, 1],  # 0: 未购买, 1: 已购买'Segment': [0, 1, 1, 0, 1, 1]  # 0: 低价值客户, 1: 高价值客户
}
df = pd.DataFrame(data)# 数据预处理
X = df[['Age', 'Income', 'Purchase_History']]
y = df['Segment']# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 创建决策树分类器
clf = DecisionTreeClassifier(criterion='entropy', max_depth=3)
clf.fit(X_train, y_train)# 预测
y_pred = clf.predict(X_test)# 评估模型
accuracy = accuracy_score(y_test, y_pred)
print(f'客户细分模型准确率: {accuracy:.2f}')
print(classification_report(y_test, y_pred))

购买预测

  在市场营销中,决策树可以用于购买预测,通过分析客户的购买行为、偏好和人口统计特征,帮助企业识别潜在的高价值客户。这使得企业能够制定更有针对性的营销策略。

案例代码:

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier
from sklearn.metrics import accuracy_score, classification_report# 示例数据:客户信息
data = {'Age': [22, 35, 45, 23, 54, 33],'Income': [30000, 60000, 80000, 25000, 90000, 50000],'Purchase_History': [1, 0, 1, 0, 1, 1],  # 0: 未购买, 1: 已购买'Segment': [0, 1, 1, 0, 1, 1]  # 0: 低价值客户, 1: 高价值客户
}
df = pd.DataFrame(data)# 数据预处理
X = df[['Age', 'Income', 'Purchase_History']]
y = df['Segment']# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 创建决策树分类器
clf = DecisionTreeClassifier(criterion='entropy', max_depth=3)
clf.fit(X_train, y_train)# 预测
y_pred = clf.predict(X_test)# 评估模型
accuracy = accuracy_score(y_test, y_pred)
print(f'购买预测模型准确率: {accuracy:.2f}')
print(classification_report(y_test, y_pred))

五、总结

  决策树作为一种经典的机器学习算法,以其直观性和易解释性在多个领域得到了广泛应用。通过对数据的特征选择和递归划分,决策树能够有效地进行分类和回归任务。在金融领域,决策树帮助机构评估信用风险;在医疗领域,它为疾病诊断提供了有力支持;在市场营销中,决策树则助力企业进行客户细分和精准营销。

  尽管决策树具有许多优点,但也存在过拟合和对噪声敏感等缺点。因此,在实际应用中,合理的特征选择、剪枝策略和模型评估至关重要。随着数据科学和人工智能技术的不断发展,决策树仍将继续发挥其重要作用,帮助各行业从海量数据中提取有价值的信息,做出更科学的决策。希望本文能够为您深入理解决策树的原理、实现步骤及应用场景提供有益的参考与启发。


  码文不易,本篇文章就介绍到这里,如果想要学习更多Java系列知识点击关注博主,博主带你零基础学习Java知识。与此同时,对于日常生活有困扰的朋友,欢迎阅读我的第四栏目:《国学周更—心性养成之路》,学习技术的同时,我们也注重了心性的养成。

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/58712.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

基于Java Web的传智播客crm企业管理系统的设计与实现

项目描述 临近学期结束,还是毕业设计,你还在做java程序网络编程,期末作业,老师的作业要求觉得大了吗?不知道毕业设计该怎么办?网页功能的数量是否太多?没有合适的类型或系统?等等。这里根据疫情当下,你想解决的问…

如何学习C++游戏开发

学习C游戏开发是一个涉及多个领域的复杂过程,包括编程、游戏设计、图形学等。 1. **学习C基础**: - 掌握C的基本语法和面向对象编程。 - 学习C标准库,特别是STL(标准模板库)。 2. **理解游戏开发概念**&#xf…

RabbitMQ 篇-深入了解 RabbitMQ 安装以及 SpringAMQP 的基础使用(声明队列和交换机、发送接收消息、配置 JSON 消息转化器)

🔥博客主页: 【小扳_-CSDN博客】 ❤感谢大家点赞👍收藏⭐评论✍ 文章目录 1.0 RabbitMQ 初识 1.1 RabbitMQ 安装 2.0 数据隔离 2.1 用户管理 2.2 virtual host 虚拟主机 3.0 SpringAMQP 3.1 RabbitMQ 配置 3.2 发送消息 3.3 接收消息 3.4 Wor…

基础归一化方法 数学理论及其matlab代码

归一化是一种简化计算的方式,即将有量纲的表达式,经过变换,化为无量纲的表达式,成为标量。在多种计算中都经常用到这种方法。以下是常见的基础归一化方法:Min-Max 归一化,Z-Score 归一化、小数定标归一化、…

漫漫数学之旅038

文章目录 经典格言数学习题古今评注名人小传 - 古斯塔夫福楼拜 经典格言 诗歌是一门像几何一样严格的科学。——古斯塔夫福楼拜(Gustave Flaubert) 古斯塔夫福楼拜将诗歌比作几何学,强调了诗歌创作的严谨性。他认为诗歌不仅仅是情感的流露&a…

前端md5加密

npm下载 npm install --save ts-md5页面引入 import { Md5 } from ts-md5使用 const md5PwdMd5.hashStr("123456")md5Pwd(加密后的数据) .toUpperCase()方法转大写

植物神经紊乱不用怕,这些维生素来帮你!

在现代快节奏的生活中,植物神经紊乱已成为一种常见的健康问题。你是否经常感到焦虑、失眠、疲劳,甚至消化不良?这些可能都是植物神经紊乱的表现。幸运的是,通过适当补充维生素,我们可以有效缓解症状,恢复身…

华为ENSP--ISIS路由协议

项目背景 为了确保资源共享、办公自动化和节省人力成本,公司E申请两条专线将深圳总部和广州、北京两家分公司网络连接起来。公司原来运行OSFP路由协议,现打算迁移到IS-IS路由协议,张同学正在该公司实习,为了提高实际工作的准确性和…

二分查找习题篇(下)

二分查找习题篇(下) 1.山脉数组的峰顶索引 题目描述: 给定一个长度为 n 的整数 山脉 数组 arr ,其中的值递增到一个 峰值元素 然后递减。 返回峰值元素的下标。 你必须设计并实现时间复杂度为 O(log(n)) 的解决方案。 示例 1: 输入&#xf…

playground.tensorflow神经网络可视化工具

playground.tensorflow 是一个可视化工具,用于帮助用户理解深度学习和神经网络的基本原理。它通过交互式界面使用户能够构建、训练和可视化简单的神经网络模型。以下是一些主要的数学模型和公式原理,它们在这个平台中被应用: 1. 线性模型 线…

LSM-TREE和SSTable

一、什么是LSM-TREE LSM Tree 是一种高效的写优化数据结构,专门用于处理大量写入操作 在一些写多读少的场景,为了加快写磁盘的速度,提出使用日志文件追加顺序写,加快写的速度,减少随机读写。但是日志文件只能遍历查询…

SDL线程

文章目录 SDL线程相关 SDL线程相关 SDL线程创建:SDL_CreateThreadSDL线程等待: SDL_WaitThreadSDL互斥锁 :SDL_CreateMutex/SDL_DestoryMutexSDL锁定互斥: SDL_LockMutex/SDL_UnlockMutexSDL条件变量:SDL_CreateCond/SDL_DestoryCondSDL条件变量 等待通知: SDL_Con…

DevExpress JS ASP.NET Core v24.1亮点 - 支持DateOnly/TimeOnly类型

DevExtreme拥有高性能的HTML5 / JavaScript小部件集合,使您可以利用现代Web开发堆栈(包括React,Angular,ASP.NET Core,jQuery,Knockout等)构建交互式的Web应用程序。从Angular和Reac&#xff0c…

【HarmonyOS】键盘遮挡输入框UI布局处理

【HarmonyOS】键盘遮挡输入框UI布局处理 问题背景: 在开发输入框UI时,特别是登录页面的密码输入框靠下,或者是评论底部的pop弹框。 当我们输入框获得焦点后,键盘自下而上显示,一般情况下会遮挡住我们的UI布局。 导致…

Rust重写万物之——从头开始编写浏览器引擎

一款用 Rust 编写的全新“轮子”最近备受关注—— 因不满大公司垄断,Gosub 项目团队用 Rust 从头开始编写了一个新的浏览器引擎,目前 star 数已超过 3k。 Gosub 项目的诞生是因为不少用户对当前的 Web 浏览器现状感到不满。 尽管市面上有许多浏览器可供选择,但其中大多数…

抗辐照MCU芯片工艺解析:如何保障芯片的可靠性

行星探索、轨道飞行器任务和空间研究在内的太空项目需要创新的航天器系统技术提供通信与处理功能。随着商业航天的发展,对于航天电子系统需要考虑高可靠与高性能的同时,还需要考虑降低开发成本和缩短上市时间。 以MCU芯片AS32A401为例,该芯片…

python(自用查看版)

目录 1.注意事项 1.1 python的除法不是整除,得到的是浮点数 1.2算术符号基于数学的算术优先级。具体可自行查看。 1.3注释 1.4缩进 1.5换行 1.6常见关键字 1.7续行符 1.8报错 1.9赋值 1.10比较运算符 2.常量和表达式 3.变量 4.数据类型 4.1整型int …

微信小程序,点击bindtap事件后,没有跳转到详情页,有可能是app.json中没有正确配置页面路径

文章目录 1、index.wxml2、index.js检查点1. 确保目标页面存在2. 确保页面路径配置正确3. 检查页面接收参数productDetail.jsproductDetail.wxmlproductDetail.wxss 总结 1、index.wxml <!-- 商品搜索结果卡片容器 --><view class"search-result"><bl…

科技改变生活:最新智能开关、调光器及插座产品亮相

根据QYResearch调研团队的最新力作《欧洲开关、调光器和插座市场报告2023-2029》显示&#xff0c;预计到2029年&#xff0c;欧洲开关、调光器和插座市场的规模将攀升至57.8亿美元&#xff0c;并且在接下来的几年里&#xff0c;将以4.2%的复合年增长率&#xff08;CAGR&#xff…

OpenGL入门006——着色器在纹理混合中的应用

本节将理解顶点和片段着色器在纹理混合中的应用 文章目录 一些概念纹理时间依赖动画 实战简介dependenciesshader.fsshader.vsteenager.pngtex.png utilswindowFactory.hshader.hRectangleModel.hRectangleModel.cpp main.cppCMakeLists.txt最终效果 一些概念 纹理 概述&…