《人工智能安全:挑战与破局之路》

《人工智能安全:挑战与破局之路》

  • 一、人工智能安全现状
  • 二、人工智能安全面临的挑战
    • (一)技术层面的挑战
    • (二)伦理与社会层面的挑战
  • 四、人工智能安全未来发展趋势
    • (一)技术创新引领发展
    • (二)政策法规不断完善
  • 五、保障人工智能安全
    • (一)完善法律法规体系
    • (二)加强监管机制建设
    • (三)以技术反制 “滥用技术”

一、人工智能安全现状

人工智能应用中的安全问题频现。当前,人工智能在多个领域广泛应用,但其安全问题也日益凸显。例如,模型中毒是一种常见的安全威胁,恶意行为者可以向模型中注入恶意数据,导致模型做出错误决策,就像工程图像可能欺骗机器学习模型,将猫的图像标记为老鼠。隐私泄露也是一个重大问题,随着人工智能的发展,个人隐私信息的保护变得尤为重要。用户往往不知道自己的数据是否被用于人工智能算法,而攻击者可能会利用恶意软件窃取敏感数据集,如信用卡号码或社会安全号码等个人信息。数据篡改同样带来巨大风险,在 AI 规模化应用背景下,数据容易被恶意行为者操纵或篡改,同时算法偏见也成为一个难题,目前行业还未找到有效的解决方案。内部威胁也是不可忽视的安全隐患,内部人员可能出于各种原因,如报复、好奇心或人为错误等,对系统造成严重损害。针对性蓄意攻击可能会破坏公司的竞争能力,而大规模采用人工智能也使得黑客有更多机会干扰程序的输入和输出。此外,AI 驱动的攻击也日益增多,恶意攻击者将人工智能武器化,设计和实施攻击。
以人工智能隐私泄露为例,其危害不容小觑。个人信息被滥用可能导致网络诈骗、恶意营销甚至人身攻击等,企业声誉受损会影响正常运营和客户信心,国家安全也可能受到威胁。为防范隐私泄露,需要加强法律法规的制定和执行,政府应规范人工智能技术的发展和应用,加强网络安全监管。企业要加强自律,遵守法律法规和道德规范,保护用户隐私权和信息安全。个人在使用人工智能设备时应提高警惕,注意保护自己的隐私信息。
人工智能应用还面临着其他数据安全威胁。在 “AI + 安全开发” 方面,基于大模型的代码助手可提高开发人员效率并检测安全漏洞;在 “AI + 终端安全” 方面,产品能快速分析并识别各种代码。然而,目前提升人工智能安全的手段还不够,亟需研究通用性强、效率高的对抗样本防御办法。
此外,人工智能新时代面临三大安全威胁。一是 AI “饱和式” 攻击打垮网络安全运营体系,让政企机构陷入 “攻强守弱” 的境地;二是 AI 深度伪造引发社会混乱,冒用身份进行网络欺诈,可能引发社会认知混乱;三是 AI 投毒污染数据冲击安全防线,黑客利用 AI 升级攻击手段,使 AI 算法产生错误判断且难以检测和防范。
在全球化背景下,人工智能安全治理面临困境。各国在人工智能领域展开政策竞赛、战略竞赛、规则竞赛,试图建立优势,这导致治理体系复杂且困难。以国家信任为基础构建全球人工智能安全治理显得尤为迫切,国家信任分为理性信任、价值信任和环境信任,能够增强各国在人工智能领域的合作信心,推动技术创新与安全保障并行发展。
我国也在积极提升人工智能安全检测能力,通过梳理政策背景、安全风险和能力现状,提出治理建议,以保障人工智能与实体经济融合发展和安全应用。目前,人工智能安全风险主要包括数据安全风险、算法模型安全风险、基础设施安全风险和应用安全风险等四类。
总之,当前人工智能应用中的安全问题频现,需要全行业高度关注并找到有效的应对方法,以确保人工智能技术的健康发展和安全应用。

二、人工智能安全面临的挑战

(一)技术层面的挑战

  1. 模型易受攻击

    • 对抗样本攻击:在图片中加入噪声或在文章中改变一个字母,就可能干扰人工智能的识别模型,让机器出现错误认知。例如,在交通标识牌上贴上一些标签,人工智能可能就识别不出 “停止” 的意思,而会识别成 “限速 45 公里”;男性佩戴上 3D 打印的奇特眼镜,人工智能可能会将其识别成另一名女性。随着基于扩散模型的新工具的出现,这类虚假的 AI 图像变得越来越常见。Google 的 Nicholas Dufour 及其同事的一项研究发现,从 2023 年初开始,在经过事实核查的虚假信息中,AI 生成图像的比例迅速增加。
    • 后门攻击:通过向智能识别系统的训练数据安插后门,使其对特定信号敏感,并诱导其产生攻击者制定的错误行为。经典的后门攻击也是通过数据投毒实现的,攻击者操纵训练数据,毒化一部分训练数据并加上触发器,在修改后的训练集上进行训练得到模型,当模型接收到带有触发器的样本时,就会做出误分类的决策。
  2. 数据安全问题

    • 数据篡改:算法偏见是人工智能规模化应用中面临的主要问题之一,如何确保输入算法的数据准确、可靠且不被篡改是一个难题。目前行业还没有找到明确的答案,但数据篡改带来的风险在 AI 规模化应用背景下正在被不断放大,因为这些系统需要基于大量数据进行分析决策,而这些数据很容易被恶意行为者操纵或篡改。
    • 隐私泄露:用户难以知道自己的数据是否流入了人工智能算法的应用中,隐私保护政策缺乏相关信息。随着人工智能的发展,个人隐私信息的保护变得尤为重要。攻击者可能会利用恶意软件窃取敏感数据集,如信用卡号码或社会安全号码等个人信息。同时,以 ChatGPT 为代表的人工智能大模型在训练过程中可能会使用用户的反馈用于优化模型参数,若这些数据没有得到充分的保护,就可能被不法分子获取,导致隐私数据泄露的风险增加。

(二)伦理与社会层面的挑战

  1. 人工智能误判、滥用、失控、操纵等引发的连锁反应可能导致灾难性后果。例如,在自动驾驶领域,“数据投毒” 可导致车辆违反交通规则甚至造成交通事故;在医疗保健领域,内部人员可能导致系统被错误连接,甚至可以监控获取患者的医疗信息。此外,人工智能发展带来的网络安全新挑战不容忽视,既有技术层面的攻防对抗,也有系统自身的脆弱性,更有深层次的伦理困境。
  2. 生成式人工智能可能生成虚假新闻,引发社会信任危机。随着人工智能技术的飞速发展,生成式人工智能产品如 ChatGPT 等能够生成文本、图片、声音、视频等内容,但也可能生成虚假新闻。国家互联网信息办公室关于《生成式人工智能服务管理办法(征求意见稿)》中明确要求利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。AI 造谣问题日益严重,公安部网安局特别提醒广大网民提高警惕,防范 AI 谣言的危害。与传统的网络谣言相比,利用 AI 技术制造的假信息更加逼真,难以辨认,可能通过篡改真实图像、音频或视频的方式,创造出看似合理但实际上并不存在的场景;也可能是完全由算法生成的内容,没有实际发生的事件作为依据。其目的都是为了误导公众,达到某种不可告人的目的。为了识别并防御 AI 谣言,可以保持怀疑态度、查证信息真伪、关注官方渠道、增强个人隐私保护意识、积极参与网络环境净化等。同时,研究人员也在探索如何辨别真伪的最佳方法,如识别 AI 生成图像中的社会文化上的不合理性、解剖学上的不合理性、风格化痕迹、功能上的不合理性、物理学上的违背等常见错误类型;识别视频中的深度伪造可以通过观察嘴巴和唇部动作、解剖学上的故障、面部、光照、头发、眨眼等技巧。此外,深度伪造视频类别基于扩散模型可以根据文本提示生成完全由 AI 生成的视频片段,但目前生成的视频通常呈现出扭曲的脸部或奇怪的身体动作,更容易被人们察觉。

四、人工智能安全未来发展趋势

(一)技术创新引领发展

  1. 深度学习、强化学习等 AI 技术的融合应用,将提升 AI 安全产品的智能化和自动化水平。

    • 随着人工智能技术的不断进步,深度学习、强化学习等多种技术的融合成为必然趋势。这种融合将为 AI 安全产品带来更强大的功能和更高的性能。例如,在恶意软件检测中,通过融合多种 AI 技术,可以更准确地识别恶意软件的行为特征,提高检测准确率。同时,融合后的技术还可以实现对恶意软件的自动分类和处理,提升安全产品的自动化水平。
    • 在网络安全防护方面,AI 技术的融合应用可以实现对网络攻击的实时监测和预警。通过对网络流量的深度分析,融合后的 AI 技术可以快速识别出异常行为,并及时发出警报,为企业提供更及时的安全保障。此外,融合后的技术还可以自动生成应对策略,提高网络安全防护的智能化水平。
  2. 多模态生成式 AI 的发展,将使 AI 安全系统能够处理更多种类的数据,提供更全面的安全保护。

    • 多模态生成式 AI 能够处理文本、图像、音频等多种类型的数据,这使得 AI
      安全系统可以从多个维度对数据进行分析和保护。例如,在图像识别领域,多模态生成式 AI 可以通过对图像的内容、颜色、纹理等多个特征进行分析,提高图像识别的准确性和安全性。同时,在音频处理方面,多模态生成式 AI可以对音频的频率、振幅、音色等特征进行分析,识别出潜在的安全威胁。
    • 多模态生成式 AI 的发展还将促进 AI 安全系统与其他领域的融合。例如,在智能交通领域,多模态生成式 AI可以结合车辆的传感器数据、路况信息等多种数据源,实现对交通流量的智能调控和安全管理。在医疗保健领域,多模态生成式 AI可以分析患者的病历、影像资料等多种数据,为医生提供更准确的诊断和治疗建议,同时保障患者的隐私安全。

(二)政策法规不断完善

  1. 各国政府加强对人工智能的监管,出台相关政策法规,为 AI 安全行业的发展提供有力保障。

    • 随着人工智能的快速发展,各国政府越来越重视对其的监管。例如,欧盟发布了《人工智能法案》,旨在保护基本权利、民主、法治和环境可持续性免受高风险人工智能的影响,同时促进创新。美国也发布了《关于安全、可靠、值得信赖地开发和使用人工智能的行政命令》,采取基于风险的监管原则,关注高风险 AI 系统并制定了具体的监管准则。
    • 中国也出台了一系列政策法规,加强对人工智能的监管。例如,国家互联网信息办公室等七部门联合发布了《生成式人工智能服务管理暂行办法》,旨在促进生成式人工智能的健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。
  2. 企业将更加注重人工智能治理,主动投资人工智能合规治理,以应对新的监管挑战。

    • 在政府加强监管的背景下,企业将更加注重人工智能治理。企业需要建立健全的人工智能治理体系,包括制定内部政策、规范操作流程、加强数据安全管理等。同时,企业还需要主动投资人工智能合规治理,以确保其人工智能产品和服务符合相关政策法规的要求。
    • 企业可以通过多种方式加强人工智能合规治理。例如,企业可以成立科技伦理(审查)委员会,对人工智能产品和服务进行伦理审查。企业还可以加强对员工的培训,提高员工的安全意识和合规意识。此外,企业还可以积极参与行业标准的制定,推动人工智能行业的健康发展。

五、保障人工智能安全

(一)完善法律法规体系

  1. 构建系统化的人工智能法律法规体系,积极推动人工智能领域立法进程。

    • 当前,人工智能的快速发展带来了诸多安全风险和挑战,构建系统化的人工智能法律法规体系迫在眉睫。积极推动人工智能领域立法进程,需要建立国家层面的立法研究工作组,充分收集学术界、产业界的意见,汲取国外立法经验。兼顾约束不当行为和营造产业优良发展环境的目的,开展人工智能专项立法研究,以促进人工智能产业健康发展。在新法律颁布前,可以在现有《数据安全法》《著作权法》等法律规定基础上制定行政法规,或发布司法解释、指导性案例等方式,阶段性缓解人工智能发展中面临的法律问题。
  2. 出台司法解释、法律修正案等,对当前人工智能已经和可能引发的法律争议提供解决方案。

    • 随着人工智能的广泛应用,诸如人工智能生成物的可版权性以及权利归属问题、训练数据来源的合法性问题、隐私保护问题、人工智能侵权问题以及虚假生成内容的责任认定等法律争议不断涌现。出台司法解释、法律修正案等,能够针对这些具体问题提供明确的解决方案。例如,明确生成式人工智能“事前 - 事中 - 事后”全链条监管机制,参考欧盟经验,出台人工智能的风险等级规范,针对不同类型、不同风险等级,施加不同的监管措施。引入算法认证标识、监管沙盒机制,指导和支持企业在监管机构的监督下进行创新活动。同时,建立人工智能责任认定和追责机制,以技术的使用为主线,将经济利益与责任承担深度结合,形成完整的链式责任分配机制,实现生成式人工智能发展的总体可控。

(二)加强监管机制建设

  1. 网信办牵头,多部门共同参与的算法治理联席会议制度,引入创新监管工具。

    • 网信办牵头强化算法治理联席会议制度,国家发改委、工信部、公安部等部门共同参与,形成合力,对人工智能进行有效监管。为公共和私营组织创造测试新商业模式的空间。这种灵活的监管方式可以在一定程度上平衡创新与安全,为人工智能的发展提供更加宽松的环境。
  2. 推动大模型研发机构和企业制定严格的保护政策和行为规范,严厉打击侵权犯罪行为。

    • 在人工智能快速发展的背景下,大模型研发机构和企业承担起更多的责任。推动这些机构和企业制定严格的保护政策和行为规范,明确在数据保护、隐私安全、知识产权等方面的责任和义务。对于侵犯知识产权、泄露用户隐私等侵权犯罪行为,严厉打击,形成强大的威慑力。推动大模型研发机构和企业制定严格的保护政策和行为规范,严厉打击侵权犯罪行为。同时,针对文字、图片、视频生成模型分类分级管理,紧跟技术发展情况,快速调整管理措施。

(三)以技术反制 “滥用技术”

  1. 鼓励成立校企共同体,培养更多 “AI + 安全” 领域的实战型、复合型人才队伍。

    • 人工智能安全问题的解决需要大量的实战型、复合型人才。鼓励成立校企共同体,培养大数据、人工智能、网络安全等新兴产业领军人才,壮大 “AI + 安全” 领域的实战型、复合型人才队伍。鼓励成立校企共同体,培养更多大数据、人工智能、网络安全等新兴产业领军人才。教育部《网络安全人才实战能力白皮书》显示,到 2027 年,我国网络安全人员缺口将达 327 万,而高校人才培养规模为 3 万 / 年,许多行业面临着网络安全人才缺失的困境。南山区正积极申报 “国家网络安全教育技术产业融合发展试验区”,推动形成网络安全人才培养、技术创新产业发展的良性生态。中国电子与哈尔滨工业大学、北京邮电大学、深圳大学、南方科技大学等高校开展了深入的校企合作,在人才培养、技术产品研发、科技成果转化等方面取得显著成效,累计培训网信人才超10 万人。
  2. 给予兼具 “安全和 AI” 能力的企业专项扶持政策,支持 “AI + 安全” 产业发展。

    • 国家应给予兼具 “安全和 AI” 能力的企业专项扶持政策,更好发挥其解决通用大模型安全问题的重要作用。设置专项基金,对研发创新 “AI + 安全” 产品的企业给予政府基金、贴息贷款或科研项目等支持。例如,全国政协委员、360 集团创始人兼董事长周鸿祎建议,国家给予兼具 “安全和AI” 能力的企业专项扶持政策。齐向东也支持 “AI + 安全” 产业发展,建议设置专项基金,对研发创新 “AI + 安全” 产品的企业给予支持。
  3. 设立人工智能可信性指南,加强安全技术攻关,构建内生安全底座。

    • 设立人工智能可信性指南,构建可信人工智能标准框架。在训练语料库方面,构建高质量中文语料库和数据集,更好支撑国内人工智能模型训练。在数据收集和使用方面,明确人工智能训练数据的分类分级保护标准,制定不同类型和不同级别数据的处理规则和安全保护措施。在数据存储和传输方面,强化数据脱敏和数据加密要求,引入对称或非对称加密技术降低敏感信息泄露的风险。在隐私保护方面,引入差分隐私、同态加密和安全多方计算等技术,确保模型在隐私受限环境中的训练和生成。依托人工智能可信性指南,建立可信 AI 评估工作机制,打造国内权威、公平科学的可信 AI 评测平台,构建自主可控的可信 AI 检测工具体系。面向训练数据和生成内容,打造相应的检测工具,保证使用合法的数据进行训练,防范虚假、有害的内容生成。加强安全技术攻关,强化内生安全防御技术,赋能人工智能应用系统,有效阻断和控制应用系统硬件环境存在的漏洞、后门等内生安全的共性问题,使内生安全问题难以发展成为内生安全事件。通过内置安全模块,提升自适应防护能力,使人工智能系统具备稳健性

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/diannao/63732.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

ContOS7安装完成后的一系列问题

问题1&#xff1a;constos7,安装完后&#xff0c;无法使用yum,导致无法安装任何东西&#xff0c; 解决&#xff1a;原因是国外的镜像地址有问题&#xff0c;改为国内的地址。 查看yum的状态 yum repolist 2.执行如下命令&#xff0c;更换yum源 bash <(curl -sSL https://…

使用JavaScrip和HTML搭建一个简单的博客网站系统

搭建一个简单的博客网站系统&#xff0c;我们需要创建几个基本的页面和功能&#xff1a;登录、注册、文章发布等。这里我们先实现一个基础版本&#xff0c;包括用户登录、注册以及文章发布的功能。由于这是一个简化版的示例&#xff0c;我们将所有逻辑集成在一个HTML文件中&…

跨域 Cookie 共享

跨域请求经常遇到需要携带 cookie 的场景&#xff0c;为了确保跨域请求能够携带用户的认证信息或其他状态&#xff0c;浏览器提供了 withCredentials 这个属性。 如何在 Axios 中使用 withCredentials 为了在跨域请求中携带 cookie&#xff0c;需要在 Axios 配置中设置 withCr…

一些前端组件介绍

wangEditor &#xff1a; 一款开源 Web 富文本编辑器&#xff0c;可用于 jQuery Vue React等 https://www.wangeditor.com/ Handsontable&#xff1a;一款前端可编辑电子表格https://blog.csdn.net/carcarrot/article/details/108492356mitt&#xff1a;Mitt 是一个在 Vue.js 应…

车载以太网-UDPNM

文章目录 UDPNM定义在车载以太网中的作用网络节点状态监测唤醒和睡眠管理网络拓扑发现工作流程消息发送消息接收与处理与其他车载网络协议的比较和协作UDPNM的工作原理是什么?1.消息构建与发送原理消息格式构建发送机制2.消息接收与响应原理接收过程响应机制3.状态管理与定时器…

JavaScript操作数组

push 向数组的 末尾 添加一个或多个元素&#xff0c;并返回新数组的长度。 语法&#xff1a;array.push(element1, element2, ..., elementN) const arr [1, 2, 3]; const newLength arr.push(4, 5); // 添加 4 和 5 console.log(arr); // [1, 2, 3, 4, 5] console.…

Ubuntu防火墙管理(六)——ARP防火墙过滤防御自定义系统服务

起因 在ubuntu24.04中检查arp表&#xff0c;输出异常 arp -a? (10.162.242.142) 位于 74:3a:20:b9:e8:02 [ether] 在 wlp2s0 ? (10.162.0.1) 位于 在 wlp2s0 ubuntu环境中&#xff0c;这是否表示ARP攻击&#xff0c;本地网关为10.162.0.1&#xff0c;可用arptables防御吗&a…

uniapp扭蛋机组件

做了一个uniapp的扭蛋机组件&#xff0c;可以前往下载地址下载 仅测试了vue2、3、h5页面微信小程序&#xff0c;理论支持全平台 使用方法简单&#xff0c;具有待机动效、抽奖中动效、掉落奖品动效&#xff0c;可以替换奖品图片&#xff0c;足以满足大部分抽奖页面需求。 示例图…

C#实现一个HttpClient集成通义千问-开发前准备

集成一个在线大模型&#xff08;如通义千问&#xff09;&#xff0c;来开发一个chat对话类型的ai应用&#xff0c;我需要先了解OpenAI的API文档&#xff0c;请求和返回的参数都是以相关接口文档的标准进行的 相关文档 OpenAI API文档 https://platform.openai.com/docs/api-…

用JavaScript实现一个贪吃蛇游戏

原理如下&#xff0c;贪吃蛇的蛇身就是一个数组&#xff0c;数组中的每个元素都是一个坐标&#xff0c;蛇身每次移动时都会在数组前插入一个新坐标&#xff0c;并在数组尾部删掉一条记录&#xff0c;吃到食物后数组的尾部记录就不删。如果移到屏幕边缘会从屏幕的另一边出现。好…

Unity RectTransUtility工具类

这个工具主要是用于动态生成UI的情况。项目中我们通过配置UI的锚点、位置以及大小(位置、大小都是通过蓝湖看到的)&#xff0c;然后通过代码动态生成UI。 大部分情况下只要合理设置锚点&#xff0c;那么生成出来的UI就已经满足了适配的要求。 using UnityEngine;public static…

红日靶场vulnstack 4靶机的测试报告[细节](一)

目录 一、测试环境 1、系统环境 2、注意事项 3、使用工具/软件 二、测试目的 三、操作过程 1、信息搜集 2、漏洞利用Getshell ①Struts 2 s2-045漏洞 手工利用s2-45漏洞 Msf综合利用 ②Tomcat框架(CVE-2017-12615) ③phpMyAdmin(CVE-2018-12613) 构造语句写入冰蝎木…

Springboot使用纪要

一、配置文件的加载顺序 1、不同配置文件类型的加载顺序 springboot支持三种类型的配置文件 .yml .yaml .properties当这三种配置文件处于同一目录下时&#xff0c;springboot会优先加载properties文件&#xff0c;如果.properties文件和.yml文件都有某一配置&#xff0c;而…

Unity协程机制详解

Unity的协程&#xff08;Coroutine&#xff09;是一种异步编程的机制&#xff0c;允许在多个帧之间分割代码的执行&#xff0c;而不阻塞主线程。与传统的多线程不同&#xff0c;Unity的协程在主线程中运行&#xff0c;并不会开启新的线程。 什么是协程&#xff1f; 协程是一种…

electron 打包 webview 嵌入需要调用电脑摄像头拍摄失败问题

electron 打包 webview 嵌入需要调用电脑摄像头拍摄失败问题 这篇文章是接我cocos专栏的上一篇文章继续写的&#xff0c;我上一篇文章写的是 cocos 开发触摸屏项目&#xff0c;需要嵌入一个网页用来展示&#xff0c;最后通过 electron 打包成 exe 程序&#xff0c;而且网页里面…

Android 开发者选项-模拟辅助显示设备

目录 概述使用开关的代码实现方式系统部分的处理:参考 概述 在Android开发中&#xff0c;模拟辅助显示设备通常指的是通过Android开发者选项来设置的一种虚拟显示设备&#xff0c;它允许开发者在一个设备上模拟另一个设备的显示特性。这种功能对于测试应用程序在不同屏幕尺寸、…

android 常用三方框架

说实话&#xff0c; 我是比较讨厌三方框架的&#xff0c; 比如一个eventbus 底层逻辑就是个观察者模式&#xff0c;当然他的场景涵盖的比较丰富&#xff0c; 单从 单一原则来说&#xff0c; 还是一个简单的观察者模式就能解决问题&#xff0c; 何必要添加那么多文件到我们的项目…

[COLM 2024] V-STaR: Training Verifiers for Self-Taught Reasoners

本文是对 STaR 的改进方法&#xff0c;COLM 是 Conference On Language Models&#xff0c;大模型领域新出的会议&#xff0c;在国际上很知名&#xff0c;不过目前还没有被列入 ccf list&#xff08;新会议一般不会列入&#xff09;&#xff1b;作者来自高校、微软研究院和 Goo…

从C#中的结构体和类的区别中看引用和值的问题

在 C#中&#xff0c;结构体&#xff08;struct&#xff09;和类&#xff08;class&#xff09;都是用于创建自定义数据类型的方式&#xff0c;但它们在很多方面存在着显著的区别。掌握他们的区别至少不会产生一些我们不了解情况下发生的错误。 文章目录 一、作为参数传递时的差…

Spann3R:基于DUSt3R的密集捕获数据增量式重建方法

来自作者Hengyi Wang在b站3D视觉工坊中对于该论文透彻的讲解&#xff0c;这里是相关重要部分的截屏。这篇博客的用途主要是自己做记录&#xff0c;其次分享给感兴趣的同学&#xff0c;最后谢谢作者大佬的认真讲解。 作者是按照这样的次序来介绍的&#xff1a; 首先从传统的三…