非线性SVM模型

通过5个条件判定一件事情是否会发生,5个条件对这件事情是否发生的影响力不同,计算每个条件对这件事情发生的影响力多大,写一个非线性SVM模型程序,最后打印5个条件分别的影响力。

示例一

在非线性支持向量机(SVM)模型中,特征的影响力不像在线性SVM中那样直接通过权重系数来反映。非线性SVM通常使用核函数来映射数据到更高维的空间,在这个空间中寻找线性决策边界。因此,原始特征空间中的权重不再具有直接的解释性。

然而,我们可以通过一些方法来估计特征的重要性,尽管这些方法可能不如线性SVM中的权重系数那么直观。例如,我们可以使用特征排序技术,如递归特征消除(Recursive Feature Elimination, RFE),来评估每个特征对模型性能的贡献。但是,这种方法并不直接提供单个特征的影响力,而是提供特征子集的相对重要性。

另一种方法是使用模型特定的特征重要性评分,但这通常适用于像树模型(如随机森林)这样的模型,而不是SVM。

由于非线性SVM不直接提供特征影响力,下面将提供一个使用scikit-learn中的SVC(支持向量分类)模型的示例,该模型默认使用径向基函数(RBF)核,这是一个常用的非线性核。然后,将使用一种启发式方法来近似估计特征的影响力,尽管这种方法并不完美。

import numpy as np  
from sklearn import svm  
from sklearn.datasets import make_classification  
from sklearn.model_selection import train_test_split  # 设置随机数种子以确保结果可复现  
np.random.seed(42)  # 假设有5个条件(特征)  
num_features = 5  # 生成模拟数据  
X, y = make_classification(n_samples=1000, n_features=num_features, n_informative=num_features, n_redundant=0, random_state=42)  # 划分数据集为训练集和测试集  
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)  # 创建非线性SVM分类器(使用RBF核)  
clf = svm.SVC(kernel='rbf', gamma='scale', random_state=42)  # 训练模型  
clf.fit(X_train, y_train)  # 启发式方法:使用每个特征的训练数据方差来近似其影响力  
# 注意:这不是一个准确的方法,只是一个启发式示例  
feature_variances = np.var(X_train, axis=0)  
normalized_feature_variances = feature_variances / np.sum(feature_variances)  # 打印特征的影响力(使用方差作为启发式指标)  
print("Feature influences (using variance as a heuristic):")  
for feature_idx, variance in enumerate(normalized_feature_variances):  print(f"Condition {feature_idx + 1}: {variance}")  

# 注意:这只是一个启发式的例子,实际上并不反映SVM模型内部特征的真实影响力。  
# 在非线性SVM中,没有直接的方法来获取每个特征对决策边界的准确影响力。
在这个例子中,使用了一个启发式方法,即特征方差,来估计特征的重要性。请注意,这并不是一个准确的方法来衡量SVM中特征的影响力,因为它没有考虑到模型的实际决策边界。在非线性SVM中,特征的重要性与决策边界的关系通常是非常复杂的,并且不容易直接量化。

如果真的需要了解特征对模型决策的影响力,可能需要考虑使用其他类型的模型,如决策树或随机森林,这些模型提供了更直接的特征重要性度量。

示例二

非线性SVM(如使用径向基函数(RBF)核的SVM)并不直接提供特征影响力或权重的直观解释,因为决策边界是在一个可能无限维的特征空间中计算的,这个特征空间是通过核函数隐式定义的。因此,我们不能像线性SVM那样直接查看权重来确定特征的影响力。

然而,我们可以通过一些间接方法来估计特征的重要性,比如使用特征选择技术或模型敏感性分析。对于非线性SVM,一种常见的方法是使用基于模型性能的特征排序,例如递归特征消除(RFE)。

由于非线性SVM不提供直接的权重解释,这里会提供一个使用scikit-learn中的非线性SVM模型(如SVC)的示例,但请注意,这个示例不会直接给出每个条件的影响力。相反,会展示如何使用RFE来估计特征的重要性。

import numpy as np  
from sklearn.svm import SVC  
from sklearn.model_selection import train_test_split  
from sklearn.datasets import make_classification  
from sklearn.feature_selection import RFE  # 生成一个具有5个特征的分类问题  
X, y = make_classification(n_samples=1000, n_features=5, n_informative=5, n_redundant=0, random_state=42)  # 划分数据集为训练集和测试集  
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)  # 创建非线性SVM分类器(使用RBF核)  
svm_clf = SVC(kernel='rbf', random_state=42)  # 使用RFE进行特征选择  
rfe = RFE(estimator=svm_clf, n_features_to_select=5, step=1)  
rfe.fit(X_train, y_train)  # 打印特征的重要性排名(通过RFE)  
print("Feature Ranking: %s" % rfe.ranking_)  

# 请注意,RFE提供的排名不一定能直接转换为具体的“影响力”数值。  
# 排名为1的特征是被认为最重要的,而排名为2、3等的特征则重要性递减。  
# 在这个例子中,因为我们选择了所有5个特征,所以理想的排名应该是所有特征都为1。  
  
# 如果真的需要估计每个特征对模型预测的具体影响,可能需要考虑其他方法,  
# 比如使用基于模型的置换特征重要性(Permutation Feature Importance),  
# 或者训练多个只包含一个特征的模型来查看每个特征单独预测时的性能。
在这个例子中,RFE被用来对特征进行排序,但它不会给出具体的权重或影响力数值。如果需要更具体的数值,可能需要采取其他方法,如上面提到的置换特征重要性或单变量分析。

请注意,非线性SVM的特征影响力分析通常比线性SVM更复杂,因为决策边界不是原始特征空间的简单超平面。

示例三

在非线性支持向量机(SVM)模型中,特征的影响力并不像在线性SVM中那样直接通过权重系数来解释。非线性SVM通常使用核函数来映射数据到更高维的空间,并在那个空间中找到一个线性决策边界。因此,原始的输入特征并不会直接与决策边界的权重相对应。

然而,我们可以通过一些方法来估计特征的重要性,尽管这些方法可能不如线性SVM中的权重解释那么直接。一种方法是使用基于模型的特征重要性评分,但这通常需要对模型进行特定的修改或使用额外的工具。另一种方法是分析训练后的模型支持向量,看看哪些特征在支持向量中有较大的变化或贡献。

由于标准的非线性SVM并不直接提供特征重要性,我们将采用一种启发式的方法,通过训练多个仅基于单一特征的SVM模型,并比较它们的性能来间接评估每个特征的影响力。这种方法并不完美,但它可以给我们一些关于特征相对重要性的线索。

请注意,下面的代码示例并不是真正的非线性SVM特征重要性分析的标准方法,而是一种启发式的近似方法。

import numpy as np  
from sklearn import svm  
from sklearn.model_selection import train_test_split  
from sklearn.metrics import accuracy_score  # 假设有5个特征条件  
num_features = 5  # 生成一些模拟数据  
np.random.seed(0)  
X = np.random.randn(1000, num_features)  
y = np.random.randint(2, size=1000)  # 随机生成二分类标签  # 为了示例,我们让其中一个特征对目标有较强的影响  
X[:, 0] += 3 * y  # 划分训练集和测试集  
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)  # 存储每个特征单独训练SVM时的准确率  
feature_importances = []  # 遍历每个特征,单独用它来训练一个SVM模型  
for i in range(num_features):  # 使用当前特征训练SVM  clf = svm.SVC(kernel='rbf', gamma='scale')  # 使用RBF核,即非线性SVM  clf.fit(X_train[:, i:i+1], y_train)  # 只用当前特征进行训练  # 在测试集上评估模型  y_pred = clf.predict(X_test[:, i:i+1])  accuracy = accuracy_score(y_test, y_pred)  # 存储准确率作为特征重要性的度量  feature_importances.append(accuracy)  # 打印每个特征的影响力(以准确率为度量)  
for i, importance in enumerate(feature_importances):  print(f"Condition {i + 1} influence: {importance}")

在这个示例中,我们生成了一些模拟数据,并人为地让第一个特征对目标变量有较强的影响。然后,我们单独用每个特征训练了一个非线性SVM模型,并使用测试集上的准确率作为该特征影响力的估计。

请注意,这种方法有很大的局限性,因为它假设每个特征可以独立地预测目标变量,而实际上特征之间可能存在相互作用。此外,准确率可能不是一个好的性能度量,特别是在数据不平衡或分类问题很难的情况下。这个方法只是为了展示如何启发式地评估特征重要性,并不推荐在实际应用中使用。

在实际应用中,如果想要评估非线性SVM中特征的重要性,可能需要考虑使用基于模型的特征选择方法,如递归特征消除(RFE),或者基于模型输出的敏感性分析等方法。这些方法可以提供更准确的特征重要性估计,但通常需要更多的计算资源和更复杂的分析步骤。

示例四

非线性SVM模型,如径向基函数(RBF)核SVM,并不直接提供特征的线性权重,因为它们在特征空间中是非线性的。因此,我们不能像线性SVM那样直接解释特征的权重作为影响力。不过,我们可以通过一些间接的方法来估计特征的重要性,例如使用基于模型的置换特征重要性(Permutation Feature Importance)或SHAP值(SHapley Additive exPlanations)。

在这里,将提供一个使用scikit-learn的RBF核SVM的示例,并使用置换特征重要性来计算每个条件对预测的影响力。置换特征重要性是通过随机打乱某个特征的值并观察模型性能的变化来计算的,如果性能显著下降,则该特征被认为是重要的。

import numpy as np  
from sklearn import svm  
from sklearn.inspection import permutation_importance  
from sklearn.model_selection import train_test_split  
from sklearn.metrics import accuracy_score  
from sklearn.datasets import make_classification  # 设置随机数种子以确保结果可复现  
np.random.seed(42)  # 假设有5个条件(特征)  
num_features = 5  # 生成模拟数据  
X, y = make_classification(n_samples=1000, n_features=num_features, n_informative=num_features, n_redundant=0, random_state=42)  # 划分数据集为训练集和测试集  
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)  # 创建非线性SVM分类器(使用RBF核)  
clf = svm.SVC(kernel='rbf', gamma='scale', random_state=42)  # 训练模型  
clf.fit(X_train, y_train)  # 计算置换特征重要性  
result = permutation_importance(clf, X_test, y_test, n_repeats=10, random_state=42, n_jobs=2)  # 打印特征的影响力(置换特征重要性)  
print("Feature influences (permutation importance):")  
for feature_idx, importance in enumerate(result.importances_mean):  print(f"Condition {feature_idx + 1}: {importance}")

请注意,permutation_importance函数会对每个特征进行多次置换(在这个例子中是10次),并计算每次置换后模型性能的下降程度。importances_mean属性提供了每个特征重要性的平均值。

这段代码将训练一个非线性SVM模型,并使用置换特征重要性来估计每个条件对预测结果的影响力。结果将按照条件(特征)的索引打印出来。由于这是一个非线性模型,所得到的影响力不应该是线性权重的直接解释,而应该被理解为该特征在模型预测中的重要性度量。

示例五

在非线性支持向量机(SVM)模型中,特征的“影响力”不像在线性SVM中那样直接通过系数来解释。非线性SVM(如使用径向基函数RBF核的SVM)在高维特征空间中构建决策边界,这使得直接解释单个特征的影响力变得复杂。

尽管如此,我们仍然可以训练一个非线性SVM模型,并尝试通过一些方法来理解特征的重要性。一种常见的方法是使用特征排列重要性(permutation importance),它衡量了当我们随机打乱某个特征的值时,模型性能降低的程度。性能降低越多,说明该特征越重要。

然而,这种方法并不直接给出特征的权重,而是给出了一种特征重要性的相对度量。并且,它需要额外地拟合多次模型,这可能会很耗时。

如果坚持要查看非线性SVM模型中特征的影响力,并愿意接受这种相对度量方式,可以给出一个基于scikit-learn的特征排列重要性的示例代码。但是,请注意,这并不是直接查看模型权重的方法,也不是在所有情况下都能提供清晰解释的方法。

import numpy as np  
from sklearn import svm  
from sklearn.inspection import permutation_importance  
from sklearn.model_selection import train_test_split  
from sklearn.metrics import accuracy_score  
from sklearn.datasets import make_classification  # 创建一个模拟数据集,其中有5个特征  
X, y = make_classification(n_samples=1000, n_features=5, n_informative=5, n_redundant=0, random_state=42)  # 划分数据集为训练集和测试集  
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)  # 创建非线性SVM分类器(使用RBF核)  
clf = svm.SVC(kernel='rbf', random_state=42)  # 训练模型  
clf.fit(X_train, y_train)  # 评估模型在测试集上的性能  
y_pred = clf.predict(X_test)  
baseline_accuracy = accuracy_score(y_test, y_pred)  # 对于每个特征,计算特征排列重要性  
result = {}  
for i in range(X.shape[1]):  X_permuted = X_test.copy()  np.random.shuffle(X_permuted[:, i])  acc_permuted = accuracy_score(y_test, clf.predict(X_permuted))  result[f'Condition {i + 1}'] = baseline_accuracy - acc_permuted  # 打印特征的影响力(排列重要性)  
print("Feature influences (permutation importance):")  
sorted_result = sorted(result.items(), key=lambda x: x[1], reverse=True)  
for feature_name, importance in sorted_result:  print(f"{feature_name}: {importance}")

在这个例子中,我们首先训练了一个使用RBF核的非线性SVM模型。然后,我们计算了模型在测试集上的基线准确率。接下来,对于每个特征,我们打乱了测试集中该特征的值,并重新评估了模型的准确率。特征的重要性是通过比较基线准确率和打乱特征值后的准确率来计算的。最后,我们按照重要性从大到小的顺序打印了每个特征的影响力。

请注意,这种方法给出的是特征重要性的相对度量,而不是绝对的权重值。此外,这种方法可能会受到随机性的影响,因此可能需要多次重复实验来获得更稳定的结果。

示例六

在机器学习中,核函数通常用于支持向量机(SVM)和其他核方法中,以在高维空间中隐式地计算特征之间的相似性。然而,核函数本身并不直接提供特征的影响力或权重。在使用核函数的SVM中,特征的权重不是直接可解释的,因为模型在特征空间中学习了一个非线性决策边界。

尽管如此,我们可以尝试通过一些间接的方法来估计特征的重要性。一种可能的方法是使用基于模型性能的特征重要性评估技术,例如排列特征重要性(permutation feature importance)或基于模型的特征选择方法。但是,这些方法通常不会给出像线性模型那样的直接权重。

由于核函数SVM不直接提供特征权重,下面将展示如何使用线性SVM的系数作为特征影响力的近似,即使这不是一个完全准确的方法,因为线性SVM和核函数SVM在决策边界的性质上是不同的。但是,如果坚持要使用核函数,并且想要估计特征的影响力,我们可以考虑使用一种基于模型性能变化的方法,如排列特征重要性。

请注意,下面的代码示例实际上是一个线性SVM的例子,因为核函数SVM不提供直接的权重解释。如果想要一个核函数SVM的示例,并且接受通过排列特征重要性来估计影响力,那么请参考之前的回答中关于排列特征重要性的部分,并将其应用于一个使用核函数(如RBF)的SVM模型。

如果想要一个使用核函数但尝试解释特征影响力的简化示例(尽管这不是标准的做法),可以考虑使用线性核的SVM,并假设特征在某种程度上是线性相关的。这样的假设在现实世界中可能不成立,但它会提供一个权重的概念,尽管这些权重不应该被解释为在真正的非线性核SVM中一样。

这里是一个使用线性核的SVM示例,我们将错误地将其权重解释为特征影响力:

import numpy as np  
from sklearn.svm import SVC  
from sklearn.datasets import make_classification  
from sklearn.model_selection import train_test_split  # 创建一个模拟数据集,其中有5个特征  
X, y = make_classification(n_samples=1000, n_features=5, n_informative=5, n_redundant=0, random_state=42)  # 划分数据集为训练集和测试集  
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)  # 创建SVM分类器,使用线性核  
clf = SVC(kernel='linear', C=1.0, random_state=42)  # 训练模型  
clf.fit(X_train, y_train)  # 获取特征的系数,这里假设它们代表了影响力(尽管在非线性核下这种解释不成立)  
coef = clf.coef_[0]  # 打印特征的影响力(系数)  
print("Feature influences (coefficients):")  
for idx, coef_value in enumerate(coef):  print(f"Condition {idx + 1}: {coef_value}")

这段代码中的权重解释仅在线性核函数下有效,并且即使在这种情况下,它们也应该谨慎解释。在非线性核函数下,权重没有直接的对应物,因此通常不会尝试以这种方式解释它们。如果真的需要在非线性核SVM中估计特征影响力,应该考虑使用排列特征重要性或其他模型无关的特征选择技术。

No module named 'sklearn'

为了解决这个问题,需要安装scikit-learn

python -m pip install -U scikit-learn

pip install -U scikit-learn 命令将检查当前安装的 scikit-learn 版本,并升级到最新版本(如果有一个新版本可用)。如果 scikit-learn 还没有安装,这个命令将安装最新版本的 scikit-learn

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/790165.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Vue3从入门到实战:路由的query和params参数

在Vue 3中,我们可以通过路由的查询参数来传递数据。这意味着我们可以在不同的页面之间传递一些信息,以便页面可以根据这些信息来显示不同的内容或执行不同的操作。 查询参数的使用方式类似于在URL中添加附加信息,以便页面之间可以根据这些信息…

【GlobalMapper精品教程】073:像素到点(Pixels-to-Points)从无人机图像轻松生成点云

文章目录 一、工具介绍二、生成点云三、生成正射四、生成3D模型五、注意事项一、工具介绍 Global Mapper v19引入的新的像素到点工具使用摄影测量原理,从重叠图像生成高密度点云、正射影像及三维模型。它使LiDAR模块成为已经功能很强大的的必备Global Mapper扩展功能。 打开…

JavaScript高级 —— 学习(三)

目录 一、深入面向对象 (一)面向对象介绍 (二)面向对象编程 (oop) 1.面向对象编程介绍 2.面向对象编程优点 3.面向对象的特征 4.和面向过程编程对比 二、构造函数 (一)介绍…

【HTB】Trick 靶场

Trick靶场 地址:https://app.hackthebox.com/machines/477 打靶过程 靶机IP:10.129.227.180 1.信息收集 1.1 nmap 端口扫描 ┌──(root㉿kali)-[~/Desktop] └─# nmap -Pn -sC -sV -p- 10.129.227.180 --min-rate5000 Starting Nmap 7.94SVN ( https://nmap…

C++——list类及其模拟实现

前言&#xff1a;这篇文章我们继续进行C容器类的分享——list&#xff0c;也就是数据结构中的链表&#xff0c;而且是带头双向循环链表。 一.基本框架 namespace Mylist {template<class T>//定义节点struct ListNode{ListNode<T>* _next;ListNode<T>* _pre…

根据用户角色权限,渲染菜单的一个问题记录

个人博客&#xff1a;无奈何杨&#xff08;wnhyang&#xff09; 个人语雀&#xff1a;wnhyang 共享语雀&#xff1a;在线知识共享 Github&#xff1a;wnhyang - Overview 背景 之前一直讲过自己独立在做一个中后台管理系统&#xff0c;当然这个只是开始&#xff0c;未来会基…

Java复习第十四天学习笔记(CSS),附有道云笔记链接

【有道云笔记】十四 3.30 CSS https://note.youdao.com/s/3VormGXs 一、CSS定义和基本选择器 CSS定义&#xff1a;cascading style sheet 层叠样式表。 语法&#xff1a; 选择器 { 属性名1:属性值1; 属性名2:属性值2; 属性名3:属性值3; 属性名4:属性值4; } CSS使用&a…

实现顺序表(增、删、查、改)

引言&#xff1a;顺序表是数据结构中的一种形式&#xff0c;就是存储数据的一种结构。 这里会用到动态内存开辟&#xff0c;指针和结构体的知识 1.什么是数据结构 数据结构就是组织和存储数据的结构。 数据结构的特性&#xff1a; 物理结构&#xff1a;在内存中存储的数据是否连…

通过vite创建项目

一、VUE3官网 Vue.js - 渐进式 JavaScript 框架 | Vue.js (vuejs.org) 二、通过Vite创建项目 1、在cmd窗口下&#xff0c;全局安装vite //使用国内镜像源 npm config set registryhttps://registry.npmmirror.com//安装最新版vite npm install -g vitelatest Vite | 下一代…

Pygame基础11-mask 蒙版

蒙版 蒙版是二值化的图像&#xff0c;每个像素的值只能是0或1。 mask(蒙版)的用途&#xff1a; 碰撞检测部分着色 案例 和字母的碰撞检测 当玩家碰到字母 α \alpha α时&#xff0c;改变玩家颜色为绿色&#xff0c;否则为红色。 注意&#xff1a;我们希望碰到字母 α \alp…

考研数学1800还是660还是880?

24考完&#xff0c;大家都发现&#xff0c;没有一本习题册&#xff0c;覆盖了考试的所有知识点。 主流的模拟卷&#xff0c;都没有达到24卷的难度。 这就意味着&#xff1a; 一本习题册不够了&#xff01; 刷主流模拟卷不够了&#xff01; 这会需要整个考研复习的安排&…

C++(set和map详解,包含常用函数的分析)

set set是关联性容器 set的底层是在极端情况下都不会退化成单只的红黑树,也就是平衡树,本质是二叉搜索树. set的性质:set的key是不允许被修改的 使用set需要包含头文件 set<int> s;s.insert(1);s.insert(1);s.insert(1);s.insert(1);s.insert(2);s.insert(56);s.inser…

制造业工厂怎么通过MES系统来升级改造车间管理

在当今高度竞争的市场环境下&#xff0c;制造业企业需要不断提高生产效率&#xff0c;以在激烈的竞争中立于不败之地。而一种被广泛应用的方法就是利用MES控制系统&#xff0c;通过数字化管理和自动化控制来改造生产车间提升生产效率。 1、MES管理系统能够实现对生产过程的全面…

Navicat Premium 16 Mac/win---数据库设计、管理与维护轻松掌握数据库管理精髓

Navicat Premium是一款功能强大的数据库开发工具&#xff0c;支持多种数据库系统&#xff0c;如MySQL、Redis、MariaDB、Oracle等&#xff0c;并可与云数据库兼容&#xff0c;如Amazon RDS、Microsoft Azure等。它提供了直观易用的用户界面&#xff0c;使得开发者能够轻松上手并…

k8s calico由IPIP模式切换为BGP模式

按照官网calico.yaml部署后&#xff0c;默认是IPIP模式 查看route -n &#xff0c; 看到是tunl0口进行转发 怎么切换到BGP模式呢&#xff1f; kubectl edit ippool 将ipipMode由Always修改为Never &#xff0c;修改后保存文件即可。无需做任何操作&#xff0c;自动就切换为BG…

MySql实战--普通索引和唯一索引,应该怎么选择

在前面的基础篇文章中&#xff0c;我给你介绍过索引的基本概念&#xff0c;相信你已经了解了唯一索引和普通索引的区别。今天我们就继续来谈谈&#xff0c;在不同的业务场景下&#xff0c;应该选择普通索引&#xff0c;还是唯一索引&#xff1f; 假设你在维护一个市民系统&…

stm32cubeMX_io输入输出讲解

1创建项目&#xff08;可在专栏里找到&#xff09; 2进入当前页面点击引脚将弹出下图选项选择输入输出 带点击GPIO 点击引脚弹出如下选项根据需求选择 如有需要可以使用外部时钟&#xff1b;设置如图使用外部时钟 生成代码 将会弹出一个提示点击中间项//打开项目

HarmonyOS NEXT应用开发之MVVM模式

应用通过状态去渲染更新UI是程序设计中相对复杂&#xff0c;但又十分重要的&#xff0c;往往决定了应用程序的性能。程序的状态数据通常包含了数组、对象&#xff0c;或者是嵌套对象组合而成。在这些情况下&#xff0c;ArkUI采取MVVM Model View ViewModel模式&#xff0c;其…

clickhouse 源码编译部署

clickhouse 源码编译部署 版本 21.7.9.7 点击build project&#xff0c;编译工程&#xff0c;经过一定时间&#xff08;第一次编译可能几个小时&#xff0c;后续再编译&#xff0c;只编译有改动的文件&#xff09;生成release目录 在cmake-build-release → programs目录下…

vivado eFUSE 寄存器访问和编程

eFUSE 寄存器访问和编程 注释 &#xff1a; 在 MPSoC 和 Versal 器件上不支持以下 eFUSE 访问和编程方法。 7 系列、 UltraScale 和 UltraScale 器件具有一次性可编程位用于执行特定功能 &#xff0c; 称为 eFUSE 位。不同 eFUSE 位类型如 下所述&#xff1a; • …