来源:战略前沿技术
人工智能军事对抗技术
人工智能(AI)作为新一代科技革命的典型代表性技术,目前已在世界各国的工业、金融、娱乐和公共安全等领域广泛应用,而其在军事领域的应用也正在快速发展。随着人工智能技术与军事知识与应用的迅速结合,新型智能化决策算法、无人化武器装备将在军事中普遍运用,信息和算法对抗将发展成为未来军事行动中的主流场景。为应对对抗新形势,一方面需要利用AI技术研发新型军事装备,另一方面要了解对手所可能采用的AI对抗技术和装备,并寻找其中的算法漏洞,研发相应的防御和反制AI措施也尤为重要。军事AI将在这种攻与防的环境中不断发展。
1、人工智能对抗技术概述
近年来,人工智能在人脸识别、图像识别等民用领域已广泛应用,在发挥诸多正面作用的同时,黑客也在逐步利用AI的漏洞实施定向攻击。例如,黑客攻击手机刷脸解锁,戴上制作简易的拥有伪装效果的眼镜,就可以攻破人脸识别算法解锁他人的智能手机;黑客利用深度伪造DeepFake算法伪造奥巴马、特朗普、扎克伯格等多位政要名人发布虚假观点的视频在社交媒体上大量传播。这些AI对抗技术一方面能够欺骗AI模型给出攻击者意图的计算输出结果,另一方面可以制造以假乱真的伪造内容欺骗目标受众,因而这些技术对国家社会的安全稳定造成了巨大威胁。
2、军事人工智能算法漏洞对抗场景及对策
AI图像识别系统已在军事场景中广泛应用,可被用于遥感卫星和无人飞行器自动侦查、自动确认攻击目标乃至武器装备的AI辅助瞄准系统等。然而,当攻击者利用了AI图像检测或识别算法模型的漏洞,在装备目标上加装特定伪装图案后,便可对卫星、无人飞行器和各类智能装备背后所依赖的军事图像识别系统进行攻击,使其无法正常识别视频图像内容,无法正常工作。这类对抗技术中最典型的针对图像AI模型的攻击技术称为对抗样本攻击。图一所示,通过对图片添加轻微扰动噪音,AI模型便产生了错误的分类结果,将熊猫识别成为长臂猿。现实图二所示,测试者和测试卡车通过携带由对抗样本生成的特殊图案,即可成功逃过AI模型的检测识别。现实应用中,攻击者可以利用类似的方法,使图像识别系统将视频中的军事武器识别或个人识别为无害的物体,亦或是无法识别出带伪装的武器或人员。
(图一)
(图二)
军事单位通过这类反智能化的对抗样本技术,可以对自身装备和建筑进行伪装,实现AI隐身迷彩服、AI隐身军事装备、AI隐身建筑等,具体操作示意图如下:
图三
加装这些反智能化伪装的军事装备可以逃避对手的AI自动侦查和打击,保证自身在智能化作战中抢占先机。
而当敌对方的军事装备采用了以上AI对抗技术,我方则需开发相应的漏洞防火墙来加固自身AI系统,实现对这类反智能的“AI隐身”目标的有效侦查。目前的防御方案主要分为两种:数据预处理和对抗训练。数据预处理即通过对图像数据中的攻击噪声进行识别并过滤掉,来达到防御的效果。对抗训练即通过将对抗样本图像数据和正常图像数据放到模型里训练,进行有监督学习,得到安全加固后的模型。
3、AI伪造情报问题及对策
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/489047.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!