生成式AI是一种快速发展的颠覆式创新,可以帮助企业创新商业模式、提高效率和解锁商业价值。本研究介绍如何应对生成式AI技术带来的挑战和机遇,以及如何先发利用这种技术来超越竞争和组织创造力和效率。如果您想了解更多关于生成式AI的企业创新战略,请阅读我们的完整指南。
2022年底发布的ChatGPT引起了全球对生成式AI(简称AGI)的空前兴趣。Bill Gates评价这是与PC、互联网和移动一样革命性的技术。在前几天内,尝试这项新技术的许多用户发现并分享了无数的提升创造力和释放生产力效率的惊喜。此后的几周和几个月里,各组织争先恐后地跟上步伐,并抵御不可预见的挑战。一些组织已经采取了更正式的方法,创建了专门的团队(我的机构也早已成立了)来探索生成式AI如何探索潜在价值并提高效率。
AI时代已经到来!生成式 AI 有能力彻底改变企业的运营方式,创造新竞争优势,并有可能导致现有一些模式的消亡。然而,企业领导者不应试图成为技术专家,而应关注这将如何影响组织和业务,以及如何做出最佳战略决策以从优势中获益并降低经营风险。
这可以通过关注4个主要领域来实现:颠覆力、潜力探索、人员转型和风险政策。颠覆力要求企业需要共识且看准生成式AI的颠覆力。潜力探索涉及从哪些用例可用于使企业抓住创新机会从竞争对手中脱颖而出。人员转型涉及准备员工以支持部署并确保组织结构和人员配置变革。风险政策涉及建立道德和法律界限。这些领域中的每一个都具有短期和长期影响以及未解决的问题,但 CEO 必须为生成式 AI 可能带来的巨变做好准备。
1.认准生成式AI的颠覆力
然而,对于首席执行官来说,生成式AI构成了更大的挑战。今天的重点可能是生产率提高和技术限制,但商业模式创新的革命即将到来。正如世界上第一个免费网络浏览器Mosaic迎来了互联网时代并颠覆了我们的工作和生活方式一样,生成式AI有可能颠覆几乎每个行业——竞争优势和创造力颠覆。对领导者的含义是显而易见的:今天令人惊喜的ChatGPT火热需要演变成由企业决策者的生成式AI的创新战略。
这不是一项小任务,首席执行官们——他们可能已经脱离了技术本身的多个阶段——可能会对下一步行动感到不确定。但从我们的角度来看,首席执行官的首要任务不是完全沉浸在技术中;相反,他们应该专注于生成式AI将如何影响他们的组织和业务,以及哪些战略选择将使他们能够利用先发机遇和管理挑战。
这些都向首席执行官提出了一个紧迫的问题。当每个员工都能获得看似无限的潜力的生成式AI产品时,哪些创新成为可能?这项技术将如何改变员工角色的定义和管理方式?领导者如何应对生成式AI模型可能产生深伪或有偏见的产出这一事实?
CHATGPT的工作原理
生成式AI模型最近种类繁地不断多涌现出来,令人难以置信。它们可以接收不同的内容,像是图像、较长的文本格式、电子邮件、社群媒体内容、录音、程式码和结构化数据等。它们可以输出新的内容,像是翻译、问题解答、情绪分析、摘要,甚至影片。这些内容机器在商业上有许多潜在的应用,我们现在来谈谈其中几个。
1)营销应用
这些生成式模型在许多商业领域都有潜在的价值,但应用在行销可能是最为常见。例如,Jasper是GPT-3的行销版本,能够生成部落格文章、社群媒体贴文、网路文案、销售电子邮件、广告,以及其他要给顾客看的内容。它坚称经常用A/B测试来测试自己的输出,并针对搜寻引擎的排名将内容最佳化。 Jasper也用顾客的最佳输出微调GPT-3模型,Jasper的高阶主管表示,这种做法带来了大幅度的改善。 Jasper大部分的顾客都是个人和小型企业,但大企业有一些团队也在使用它的功能。例如,云运算公司VMWare,它的写手在制作原创的行销内容时(从电子邮件、产品活动到社群媒体文案)都在用Jasper。负责产品驱动成长的总监罗莎.李尔(Rosa Lear)表示,Jasper协助公司提升内容策略,写手现在有时间做更好的研究、发想和策略。
公关与社群媒体代理商鲁比媒体集团(Ruby Media Group)的负责人克莉丝.鲁比(Kris Ruby),目前正运用生成式模型来生成文本和图像。她说,这些模型大幅提高了SEO的效果,在公关方面也提供写手一些个人化的话术,效果十分良好。她认为这些新工具开启了一条新的著作权战线,此外,她也协助客户制定AI政策。她说,自己在用这些工具时,「AI占10%,我占90%」,因为她得进行非常多次的提示、编辑和迭代。她认为这些工具可以让文章写得更好、更完整,有利于搜寻引擎找到文章,而且图像生成工具可能会取代图库市场,有助于创意工作的复兴。
DALL-E 2和其他图像生成工具已经运用在广告上。例如,亨氏(Heinz)使用一张番茄酱瓶子的图片,上面贴有与亨氏相似的标签,称「这就是AI看到的『番茄酱』」。当然这只是表示模型在训练时用了相对大量的亨氏番茄酱瓶子的照片而已。雀巢(Nestle)使用维梅尔(Vermeer)一幅画作的AI强化版,协助销售它其中一个优格品牌。服饰公司Stitch Fix已经使用AI向顾客推荐个性化服饰,目前正在实验DALL-E 2,依照顾客对于颜色、布料和风格的偏好,建立服装的视觉化图像。美泰儿(Mattel)也在运用这项科技生成图像,用来设计玩具与行销。
2)代码生成应用
尤其是GPT-3,也证明可以有效(虽然不完美)生成电脑程式码。 GPT-3的Codex程式受过专门的程式码生成训练,只要向它描述一个「片段」(snippet,编按:一小段可重复使用的程式码)或小小的程式功能,它就可以产生各种语言的程式码。微软的Github也有一个生成程式码的GPT-3版本,称为CoPilot。最新版本的Codex,现在可以找出自己程式码的bug并修正错误,甚至还可以解释程式码在做什么,至少有时候可以这样。微软表示,它的目标不是取代人类程式设计师,而是让Codex或CoPilot之类的工具成为「伙伴程式设计师」,与人类一起合作,提高人类的速度和成效。
大家一致认为,以LLM为基础来生成程式码,在这些片段上确实运作良好,但如果要将这些片段整合到更大的程式,并将这个程式整合到特定的技术环境,仍然需要人类的程式设计能力。德勤(Deloitte)在过去几个月广泛实验Codex,发现它可以让有经验的开发人员提高生产力,并让没有经验的开发人员获得一些程式设计的能力。
德勤进行了为期六周的试行,动用了55名开发人员,结果显示大多数使用者认为,最终的程式码(大部分来自Codex)有65%以上的准确度。总体而言,德勤的实验发现,相关专案的程式码开发速度提高了20%。德勤也用Codex将程式码从一种语言翻译到另一种语言。这家公司的结论是:在可预见的未来,仍然需要专业的开发人员,但生产力提高后,也许就不需要那么多人了。德勤发现,和其他类型的生成式AI工具一样,输入的提示愈好,输出的程式码也会愈好。
3)智能会话应用
LLM目前也愈来愈应用于对话AI或聊天机器人的核心。和当前的对话科技相比,LLM对于对话的理解和上下文的认知,程度可能更好。例如,Facebook专为对话而设计的BlenderBot,能够和人类进行长时间的对话,同时又能维持上下文。 Google的BERT用于理解搜寻字词,同时也是自家DialogFlow聊天机器人引擎的组件。 Google另一个LLM是LaMBA,也是专为对话设计的,与它进行的对话曾让这家公司的一位工程师相信它有知觉。它只根据过去的对话,就能预测哪些字会用在对话里,这个杰作令人叹为观止。
这些LLM都不是完美的对话机器人。它们在训练时用的是人类过去的内容,倾向于复制训练时接触到的任何种族主义、性别歧视或偏差的语言。尽管建立这些系统的公司正在过滤仇恨言论,还是没有完全成功。
4)知识管理应用
LLM的一个新兴应用,是管理组织内部的文字知识(或可能是图像知识、影片知识)。建立结构化的知识库需要高度的劳力密集,因此许多大公司很难进行大规模的知识管理。然而,一些研究指出,如果模型的训练在微调时是以组织内部特定范围的文字知识为基础,那么LLM就可以有效管理组织的知识。 LLM里的知识,可以透过发问,也就是输入提示来取得。
有一些公司正在联合顶尖的商用LLM供应商,探索LLM知识管理的构想。例如,摩根士丹利(Morgan Stanley)正和OpenAI的GPT-3合作,以财富管理的内容来微调训练,让财务顾问既能搜寻公司内部的现有知识,也能轻而易举为客户量身制订内容。这类系统的使用者可能需要接受训练或协助,才能输入有效的提示,而且LLM的知识输出,可能也仍然需要编辑或复核,才能使用。然而,如果这些问题都处理好,LLM就能重振知识管理领域,也能让这个领域更有效地扩大规模。
2.探索AGI的创新潜力
人工智能从未如此易于获取。诸如ChatGPT、DALL-E 2、Midjourney和Stable Diffusion之类的工具使任何人都可以创建网站、生成广告策略和制作视频——可能性无限。这种“低代码、无代码”质量也将使组织更容易规模化采用人工智能能力。(参见如下“生成式AI的功能特征。”)
生成式AI的功能特征
即时生产率的提高可以大大降低成本。例如,生成式人工智能可以在几秒钟内以惊人的准确度概括文件,而研究人员可能需要花费数小时的时间(据估计每小时30至50美元)。
但是,生成式AI的普及化力量也意味着,根据定义,公司的竞争对手也将拥有相同的访问和能力。许多依赖于现有大型语言模型(LLM)应用程序的用例,例如使用Github Copilot的程序员的生产力改进和使用Jasper.ai的营销内容开发人员,将需要仅仅为了跟上其他组织。但是它们不会提供差异化,因为唯一的可变性是用户提示系统的能力所创造的。
1) 选择正确的用例
对于首席执行官来说,关键是确定公司的“黄金”用例——在现有最佳解决方案相对存在的情况下,带来真正的竞争优势并产生最大的影响。
这些用例可以来自价值链的任何点。一些公司将能够通过改进产品推动增长;提供客户服务解决方案的Intercom正在运行试点,将生成式人工智能集成到其客户参与工具中,以实现自动化优先服务。增长也可以在缩短上市时间和节省成本以及刺激想象力和创造新想法的能力中找到。例如,在生物制药领域,今天的20年专利期很大程度上被研发消耗掉了;加快这一过程可以显着增加专利的价值。2021年2月,生物技术公司Insilico Medicine宣布,其由人工智能生成的抗纤维化药物在不到30个月的时间内从概念化进入1期临床试验,花费约260万美元——比传统药物发现快几个数量级且更便宜。
一旦领导人确定了公司的黄金用例,将需要与数字化技术团队协作,就是要决定是否微调现有的LLM还是训练自定义模型。
2) 微调现有模型
适应现有的开源或付费模型是成本有效的——在2022年的实验中,Snorkel AI发现微调LLM模型以完成复杂的法律分类需要花费1,915至7,418美元。这样的应用可以节省律师的数小时时间,律师每小时的费用可以高达500美元。
微调还可以启动实验,而使用内部能力将会消耗时间、人才和投资。它将为公司未来做好准备,当生成式人工智能可能演变成像云服务一样的模型时:公司购买解决方案,期望从云服务提供商的标准化和可靠性中实现规模上的质量。
但是这种方法也有缺点。这些模型完全依赖于核心模型的训练数据的功能和领域知识;它们还受到可用的模态的限制,今天主要由语言模型组成。对于保护专有数据的有限选项——例如,微调完全存储在本地的LLMs。
3) 训练新模型或现有模型
训练自定义LLM将提供更大的灵活性,但它带来高昂的成本和能力要求:根据AI21 Labs的估计,训练一个1.5亿参数模型需要约160万美元,具有两个配置和每个配置10个运行。将这项投资放在背景下,AI21 Labs估计,Google花费了约1000万美元来训练BERT,OpenAI花费了1200万美元进行GPT-3的单次训练运行。2(请注意,成功的LLM需要多轮培训。)
这些成本以及数据中心、计算和人才需求要求显着高于其他人工智能模型,即使是通过合作伙伴管理。证明这种投资的门槛很高,但对于真正不同的用例,从模型中产生的价值可能抵消成本。
4) 计划你的AGI投资
领导者需要仔细评估此类投资的时机,权衡在人才和技术尚未准备好的复杂项目上过早移动的潜在成本,以应对落后的风险。今天的生成人工智能仍然受到其错误倾向的限制,主要应用于对变异性具有高度容忍度的用例。首席执行官们还需要考虑数据和基础设施的新融资机制——例如,预算应该来自IT、研发还是其他来源——如果他们确定定制开发是一个关键和时间敏感的需求。
当涉及到长期竞争优势时,“微调与训练”的辩论还有其他影响。以前,大多数关于生成性人工智能的研究都是公开的,模型是通过开源渠道提供的。由于这项研究现在正在闭门进行,开源模型已经远远落后于最先进的解决方案。换句话说,我们正处于生成性人工智能军备竞赛的边缘。
随着研究的加速和变得越来越专有,以及算法变得越来越复杂,跟上最先进的模型将具有挑战性。数据科学家将需要特殊的培训、高级技能和深厚的专业知识来了解模型的工作原理——它们的能力、局限性和新业务用例的实用性。希望在使用最新人工智能技术的同时保持独立的大型玩家需要建立强大的内部技术团队。
制订AI驱动创新战略
立即查看方案 >
AI时代企业创新如何做对?新常态下创新如何应对更不确定性?规划AI创新路线图,制订创新北极星,优选创新项目组合和配套创新组织机制推进执行。以此开启可持续创新增长的新篇章。
3.筹划AGI驱动的人员转型
与现有的人工智能形式一样,生成人工智能对人类来说是一种破坏性力量。在短期内,首席执行官需要与领导团队和人力资源领导合作,确定这种转型应该如何在其组织内展开——重新定义员工的角色和责任,并相应地调整运营模式。
1) 重新定义角色和责任
已经发生了一些与人工智能相关的转变。传统的人工智能和机器学习算法(有时被错误地称为分析性人工智能)使用强大的逻辑或统计数据来分析数据并自动化或增强决策,使人们能够更自主地工作,管理人员越来越专注于团队动态和目标设定。
现在,生成人工智能作为初稿内容生成器,将通过提高生产力、性能和创造力来增加许多角色。担任更多文书工作的员工,如律师助理和营销人员,可以使用生成性人工智能来创建初稿,使他们能够花更多时间完善内容和确定新解决方案。编码员将能够专注于在紧迫的时间表上提高代码质量和确保遵守安全要求等活动。
当然,这些变化不能(也不应该)在真空中发生。首席执行官需要意识到人工智能对员工情感健康和职业身份的影响。生产力的提高往往与整体员工的减少混为一谈,人工智能已经引起了员工的担忧;许多大学毕业生认为,人工智能将在几年内使他们的工作变得无关紧要。但人工智能也有可能创造尽可能多的就业机会。
因此,人工智能的影响是一个关键的文化和劳动力问题,首席执行官应该与人力资源部门合作,了解角色将如何演变。随着人工智能计划的推出,应定期进行脉搏检查,以跟踪员工的情绪;首席执行官还需要制定透明的变革管理计划,这既能帮助员工拥抱新的人工智能同事,又能确保员工保留自主权。信息应该是,人类不会去任何地方——事实上,需要有效和道德地部署人工智能。
随着人工智能采用的加速,首席执行官们需要不断学习,并利用这些经验教训来制定战略劳动力计划——事实上,他们现在应该开始制定这个计划,并随着技术的发展对其进行调整。这不仅仅是确定某些职位描述将如何变化,而是确保公司拥有合适的人员和管理层,以保持竞争力并充分利用他们的人工智能投资。首席执行官在评估公司的优势、劣势和优先事项时应该问的问题包括:
- 项目负责人需要哪些能力来确保个人贡献者的工作质量足够高?
- 首席执行官如何创建最佳体验曲线来产生正确的未来人才管道——例如,确保更初级的员工在人工智能增强方面获得技能,并确保主管准备好领导人工智能增强的员工队伍?
- 应该如何调整培训和招聘,以在现在和将来建立一支高绩效的员工队伍?
2) 调整公司的运营模式
我们预计,从长远来看,敏捷(或仿生)模式将仍然是最有效和可扩展的,但集中的IT和研发部门配备了可以培训和定制LLM的专家。这种集中化应确保使用类似类型数据的员工可以访问相同的数据集。当数据在各个部门内孤立时(这种情况太常见了),公司将努力实现生成性人工智能的真正潜力。但在合适的条件下,生成性人工智能有能力消除敏捷性和规模之间的妥协。
由于数据科学和工程的重要性越来越大,许多公司将从高级行政角色(例如,首席人工智能官)监督人工智能计划的业务和技术要求中受益。这位高管应该在每个业务部门内安排小型数据科学或工程团队,以适应特定任务或应用程序的模型。因此,技术团队将拥有领域专业知识和直接联系来支持个人贡献者,最好是将平台或技术领导者与个人贡献者之间的距离限制在一层。
在结构上,这可能涉及具有跨职能成员的部门重点团队(例如,具有销售代表和专门技术支持的销售团队),或者最好是与业务和技术平台相一致的跨部门和跨职能团队。
4.积极防范AGI风险
1) 深伪的法律与道德问题
我们已经看到,这些生成式AI系统很快就带来了许多法律和道德的问题。 「深伪」(Deepfakes)是由AI建立的图像和影片,声称符合真实,但其实是假造的。媒体、娱乐和政治等领域已经都有它们的身影。然而,建立深伪在以往需要大量的运算技能,但现在几乎每个人都做得到。为了控制伪图,OpenAI试着在每张DALL-E 2图像加上独特的符号当做「浮水印」。然而将来可能还需要更多的控制,尤其是生成式影片的创作成为主流的时候。
生成式AI也引发了很多关于原创和专有内容的问题。由于生成的文本和图像没有完全跟过去的内容一样,因此这些系统的供应商辩称,这些文本和图像属于输入相关提示的人。但它们显然是衍生品,来自于过去的文本和图像(用于训练模型)。不用说,它们将在未来几年为智慧财产权律师带来大量的工作。
生成性人工智能缺乏可信的真相功能,这意味着它不知道信息何时事实上不正确。这种特征的含义,也被称为“幻觉”,可以从幽默的缺点到破坏性或危险的错误。但生成人工智能也给公司带来了其他关键风险,包括版权侵权;专有数据泄露;以及产品发布后发现的计划外功能,也称为能力过剩。例如,Riffusion使用文本到图像模型Stable Diffusion,通过将音乐数据转换为光谱图来创建新音乐。
2) 为风险做好准备
公司需要政策来帮助员工安全地使用生成式人工智能,并将其使用限制在性能在既定护栏内的情况下。应该鼓励实验;然而,重要的是要跟踪整个组织的所有实验,避免可能暴露敏感信息的“影子实验”。这些政策还应保证明确的数据所有权,建立审查流程以防止不正确或有害的内容被发布,并保护公司及其客户的专有数据。
另一个近期当务之急是培训员工如何在他们的专业知识范围内使用生成性人工智能。生成人工智能的低代码、无代码属性可能会使员工对完成他们缺乏必要背景或技能的任务的能力感到过于自信;例如,营销人员可能会试图绕过公司IT规则并编写代码来构建新的营销工具。根据纽约大学网络安全中心的数据,人工智能生成的代码中约有40%不安全,并且由于大多数员工没有资格评估代码漏洞,这造成了严重的安全风险。根据斯坦福大学的一项研究,人工智能在编写代码方面的协助也会产生质量风险,因为程序员可能会对人工智能避免漏洞的能力过于自信。
因此,领导者需要鼓励所有员工,特别是程序员,对人工智能生成的内容保持健康的怀疑。公司政策应规定,员工只使用他们完全理解的数据,并且数据所有者对人工智能生成的所有内容进行彻底审查。生成人工智能应用程序(如Bing Chat)已经开始实现引用源数据的能力,此功能可以扩展到识别数据所有者。
3) 确保质量和安全性
领导者可以调整有关负责任出版的现有建议,以指导生成人工智能内容和代码的发布。他们应该授权提供强有力的文件,并成立一个机构审查委员会,以审查对影响的先验考虑,类似于发布科学研究的过程。下游用途的许可,如负责任的人工智能许可证(RAIL),为管理生成性人工智能缺乏真实功能提供了另一种机制。
最后,领导者应该提醒员工不要使用公共聊天机器人获取敏感信息。所有输入生成人工智能工具的信息都将被存储并用于继续训练模型;即使是对生成人工智能进行重大投资的微软也警告其员工不要与ChatGPT共享敏感数据。
如今,公司几乎没有方法在不披露数据的情况下利用法学硕士。数据隐私的一个选择是将完整模型存储在本地或专用服务器上。(BLOOM是来自Hugging Face的BigScience集团的开源模型,其大小为GPT-3,但只需要大约512千兆字节的存储空间。)然而,这可能会限制使用最先进的解决方案的能力。除了共享专有数据外,在使用LLM时还有其他数据问题,包括保护个人身份信息。领导者应考虑利用命名实体识别等清洁技术来删除人员、地点和组织名称。随着LLM的成熟,保护敏感信息的解决方案也将变得更加复杂,首席执行官应该定期更新他们的安全协议和政策。
5.立即推进AGI举措
在应对生成式AI技术时,企业可以采取以下策略:
1. 重新定义员工角色和职责:企业需要重新评估员工的角色和职责,以确保他们能够适应新的技术环境。例如,一些企业可能需要雇佣更多的数据科学家或AI专家来管理生成式AI技术。
2. 创新商业模式:生成式AI技术可以帮助企业创造新的商业模式。例如,一些公司使用生成式AI技术来创建个性化的产品或服务,以满足客户需求。
3. 提高运营效率:生成式AI技术可以自动化许多重复性任务,从而提高效率并减少错误。例如,一些公司使用生成式AI技术来自动生成报告或分析数据。
4. 重构差异化竞争:通过利用生成式AI技术创造独特的产品或服务,企业可以与竞争对手区分开来。例如,一些公司使用生成式AI技术来创建独特的广告或营销材料。
举例来说,一个在线零售商使用生成式AI技术来创建个性化的购物体验。他们可以使用这种技术来推荐商品、创建个性化广告和优化网站布局。这将帮助他们提高客户满意度并增加销售额。
另一个例子是一个医疗保健公司可能会使用生成式AI技术来自动生成医学报告。这将帮助他们提高效率并减少错误,并使医生能够更快地做出诊断和治疗决策。
生成式AI提供了前所未有的机会。但它也迫使CEO们努力应对高耸的未知数,并在一个可能感到陌生或不舒服的空间里这样做。制定生成式AI的有效战略方法可以帮助区分信号和噪声。准备重新想象其商业模式的领导者——确定正确的机会,组织企业的员工和运营模式以支持生成式AI创新,并确保实验不会以牺牲安全和道德为代价——以创造长期竞争优势。
原文链接:
创新指南|CEO如何应对生成式AI带来的4大颠覆创新机遇
延展文章:
1. 创新案例|昆曲DTC创新,用大数据和社群营销重塑传统演出商业模式
2. 创新案例|千亿护肤品牌林清轩DTC以全域直播+私域运营重塑新零售力
3. 创新案例 | 报喜鸟实现DTC转型,培育品牌新增长极的策略分析
4. Dollar Shave Club如何创新品牌-消费者关系,保持最高客户留存率
5. 渠道战略|DTC品牌如何应对10亿销售规模下的成本增长挑战?
更多精彩案例与方案可以访问Runwise创新社区。