GenAI 以前所未有的速度调解并扰乱了“一切照旧”,同时带来了令人难以置信的力量,但也带来了不可否认的责任。当然,现代企业非常熟悉技术进步。然而,人工智能的到来(和实施)无疑引起了相当大的冲击,因为一些公司仍然试图关注使用、风险和整体道德治理。
不可否认的是,GenAI 在业务层面推动新产品开发,并能带来无与伦比的增长机会和效益。要使其真正成功(并且可持续),就必须以负责任且合乎道德的方式进行部署。
尽管企业责任的想法并不新颖,但随着 GenAI 开始在业务运营中扮演更重要的角色,它往往会变得更具挑战性。因此,生成式人工智能治理的需求和重要性日益增长。
为了帮助组织实施符合道德的 GenAI 治理,同时利用Gen-AI 在监管合规方面的力量,我们整理了一些基本的入门技巧。
什么是生成式人工智能治理?
首先,让我们看看生成式人工智能治理需要什么。GenAI 治理是指专门设计用于鼓励和确保整个组织负责任地使用 GenAI 技术的一组原则、政策和实践。
它着眼于定义标准、建立指南和实施控制来指导生成算法的开发和部署。它包括了解生成式人工智能的基础知识以及可以自主生成创意输出的人工智能系统所带来的独特挑战。
谁负责 GenAI 道德治理?
GenAI 的道德治理涵盖各个实体之间的共同责任。主要参与者包括政府机构、企业、研究人员和个人。
监管机构不仅在制定和实施法律框架以防止偏见、不公平和侵犯隐私方面发挥着关键作用,而且开发 GenAI 模型的公司以及使用这些模型的组织和企业也共同承担责任。
人工智能道德治理的五个支柱
五个首要支柱概括了人工智能的道德治理。这些支柱为道德人工智能开发和部署提供了基础框架。
问责制
问责制在人工智能道德治理中发挥着重要作用。人工智能的问责制具体围绕人工智能开发人员、部署人员和用户必须对其系统的结果负责的义务。
这包括承认人工智能系统造成的任何真实或潜在的伤害,并建立纠正和纠正机制。确保问责制的两种万无一失的方法包括维护全面的审计跟踪以及在明确的法律框架内开展工作,该框架概述了人工智能相关行动的细粒度责任和后果。
透明度
透明度和问责制是相辅相成的,缺一不可。关于人工智能道德治理,需要就人工智能系统的工作方式和使用的数据进行清晰、透明的沟通。当然,GenAI 以其轻松自如而闻名。
尽管如此,其使用的影响对于所有利益相关者来说都需要同样清晰且易于理解,使他们能够就 GenAI 的使用做出决策,同时了解它可能对用户和组织产生的影响。为了实现透明度,人类必须轻松理解人工智能系统并将其置于情境中,并且必须鼓励促进理解和协作的开放标准和平台。
隐私
隐私是 GenAI 道德治理的基石,确保个人数据受到保护并遵守用户同意和数据保护法。GenAI 系统利用大量个人数据已不是什么秘密,这就是为什么必须采取严格的数据隐私和保护措施的原因。组织必须清楚地了解人工智能的使用可能如何影响任何监管数据隐私要求及其合规性。
最终,如果 GenAI 应用程序无法保证数据隐私,企业将发现获得客户信任和保护内部数据极具挑战性。
安全
在不断发展的数字环境中,技术安全是人们最关心的问题。将 GenAI 添加到其中,对威胁形势的担忧呈指数级增长。GenAI 的道德治理包括优先考虑安全性以及始终存在的数据泄露或勒索软件攻击的风险。CIO 必须了解这些风险并确定其优先级,以及使用 GenAI 模型可能会如何影响其信息安全标准。
可解释性
可解释性(也称为“可解释性”)是这样一个概念:机器学习模型及其输出可以以人类可接受的水平“有意义”的方式进行解释。可解释性在 GenAI 的道德和公平使用中发挥着重要作用。GenAI 模型及其使用必须在所有部门和用户之间进行清晰的沟通。如果没有正确(和合乎道德)的使用,GenAI 工具很少会给组织带来任何好处。这在银行或医疗保健等行业中发挥着特别重要的作用,在这些行业中,GenAI 的错误使用很容易包含固有的偏见,从而导致可操作的结果。
生成式人工智能治理中的道德挑战
他们将生成人工智能称为技术前沿的“狂野西部”是有原因的。尽管人们普遍认识到与 GenAI 有关的道德风险,但在治理方面仍然存在一些运营挑战。一些最常见的挑战和风险包括:
-
知识产权与数据泄露
-
安全漏洞
-
无意中使用受版权保护的数据
在组织中实施生成式人工智能治理
识别并理解 GenAI 应用程序的基础模型
成功的治理应该在任何形式的 GenAI 实施开始之前就开始。为什么?好吧,你无法公平(或准确)地管理你不真正理解的东西。这就是为什么第一步应该是识别和理解 GenAI 应用程序的基础模型。基础模型是构建应用程序的基础模型。每个基础模型都是独特的,并且有其自身的功能和局限性。一些著名的基础模型包括语言模型(如 OpenAI 的 GPT 系列)和视觉模型,它们专门从事图像理解和生成,甚至是针对特定领域(例如医疗保健、金融或法律行业)量身定制的基础模型。
包括关键参与者和利益相关者
要成功实施符合道德的 GenAI 治理,拥有合适的团队成员至关重要。目标不是从头开始,而是让已经在治理框架中发挥重要作用的关键利益相关者参与治理流程。例如,隐私专业人员将提供有关复杂技术用例和监管要求的宝贵专业知识。
同样重要的是您的信息安全团队,他们将针对如何主动保护您的数据免遭泄露提供独特的见解,同时确保采取正确的访问控制和安全措施来解决 GenAI 基础设施中的任何漏洞。
评估您的风险状况
说到漏洞,每个组织都有自己独特的威胁和风险状况。因此,在 GenAI 道德治理中,必须彻底了解与用例的特定模型性能相关的风险。这包括识别任何法律、网络安全、环境、信任相关、第三方相关、隐私甚至业务相关风险,然后继续建立和实施适当的风险缓解措施。
建立生成式人工智能治理框架
您的组织中需要有一个关于 GenAI 使用的清晰且规划好的框架。这应包括合规框架中常见的所有基本原则。包括从政策、指定角色和职责、安全控制和安全意识培训模型等所有内容,确保所有相关文档在必要时可供操作员质疑和验证。
生成式人工智能治理的未来
幸运的是,对于 GenAI 成功的道德治理,企业并非注定要无桨划桨。2024 年,欧盟准备为生成型人工智能的全面监管奠定基础。此外, 《通用数据保护条例》(GDPR)和即将出台的《欧盟人工智能法案》(AIA)这两项重要法规预计将在影响欧洲市场并成为全球治理的基准方面发挥核心作用。
在全球范围内,由于生成式人工智能的采用越来越多,出现了不同的监管反应来密切关注。著名的例子包括美国国家标准与技术研究所 (NIST),它引入了人工智能风险管理框架。
尽管有最好的意图和努力,如果没有专家对您的安全态势、数据和整体信息安全环境的洞察,成功的 GenAI 治理几乎是不可能的。
最终,您添加到技术堆栈中的每个工具或应用程序都归结为您是否以合乎道德、负责任和安全的方式使用、获取、保护和存储信息和数据。当然,如果没有专门的合规、隐私和安全团队,这可能会具有挑战性。