大模型无论是训练还是使用,都比较“烧钱”,只是其背后的成本究竟高到何处?已经推出大模型商用产品的公司到底有没有赚到钱?事实上,即使微软、亚马逊、Adobe 这些大厂,距离盈利之路还有很远!同时,使用这些大模型工具的人越多,相关企业需要支付基础设施的费用就越高,正因如此,贴本的买卖也开始了。
01
微软 GitHub Copilot,每月倒贴每位用户 20 美元
据《华尔街日报》10月9日报道,微软首批生成式AI产品中的GitHub Copilot正在亏损,对于目前在 AI 大模型商业应用维度走在最前沿的微软而言,它在推出的帮助程序员创建、修复和翻译代码服务的 GitHub Copilot 且拥有 150 万用户的基础上,向使用者收取每月 10 美元亦或者是每年 100 美元的费用之际,还贴了不少了钱。该服务平均每个用户每月损失 20 美元,有些用户每月高达 80 美元。
此报道一出,引发了不少用户热议,本以为入局大模型是一笔赚钱的买卖,没想到它的成本费用如此高。
02
GPT-4、ChatGPT 为何会成为“吞金兽”?
论及收费 10 美元每月的 GitHub Copilot,其实费用也不算低,那为何还是无法让微软获得营收?从多个维度来看,这类大模型的运营成本之所以如此高,并非没有理由:
一,计算资源成本
运行一个大语言处理模型,如 ChatGPT,需要大量的计算资源,包括 GPU 或 CPU。这些资源的租用和维护费用通常占据了大部分运营成本。此前在与 OpenAI 合作时,透露,最初为支持 OpenAI 训练大模型,微软开发了一套新的 Azure 人工智能超级计算技术,也在 Azure 中建立超级计算资源,这些资源的设计和专用性使 OpenAI 能够训练一套日益强大的 AI 模型。为了训练出这套模型,微软在基础设施中使用了数以千计的英伟达人工智能优化 GPU,它们被连接在一个高吞吐量、低延迟的网络中,该网络基于英伟达量子 InfiniBand 通信,用于高性能计算。对此,促成微软和 OpenAI 合作的关键人物——负责战略合作伙伴关系的微软高级主管 Phil Waymouth 表示,OpenAI 训练其模型所需的云计算基础设施的规模是前所未有的,比业内任何人试图建立的网络 GPU 集群都要大得多。后来据彭博社报道,微软在该项目上已经花费了数亿美元。此外,还有博主根据论文,推算了一下开源大模型的费用:当训练一个 65B 参数的模型时,我们的代码在 2048 A100 GPU 和 80GB 的内存上处理大约 380 个 token /秒/GPU。这意味着在我们包含 1.4T 标记的数据集上进行训练大约需要 21 天。2048 个 GPU * 21*24 * 1$ ~ 100w刀,这还是确定数据集和参数后一次的训练成本
二,数据成本
训练一个类 ChatGPT 模型需要大规模的文本数据集,这些数据集的采集、准备和维护都需要资金。同时,数据的版权和许可成本也可能增加。早些时候,为了防止数据被“白嫖”,国外诸多问答社区、社交平台纷纷加入数据收费的队伍中,如 Reddit 对每 5000 万次 API 请求收费 1.2 万美元;Twitter 推出最便宜的套餐是每月需支付 4.2 万美元,用户可以访问 5000 万条推文;Stack Overflow 也曾一度被曝要向 AI 巨头收取训练数据费用......
三,工程师和研究人员成本
开发、维护和改进 ChatGPT 需要大量的工程师和研究人员。他们的薪资、福利和其他成本会对运营成本产生影响。不论科技巨头微软,只看 OpenAI。根据 OpenAI 之前发布的官方招聘信息显示,普通的 ChatGPT 软件工程师、机器学习研究科学家的薪资水平在 20 万美元 - 37 万美元(约 138.2 万-255.7 万元人民币)。主管的级别的薪资会更高一些,譬如 ChatGPT 移动端工程主管的薪酬在 30 万美元至 50 万美元(约 207.4 万-345.6 万元人民币)。
四,安全和隐私
在保护用户隐私和确保系统安全方面的额外投入可能会导致运营成本的增加。这包括监控系统,识别滥用和违规内容,以及实施安全措施。
五,能源成本
运行庞大的数据中心来支持 ChatGPT 所需的大量服务器和冷却设备,以及相关的能源成本也是一个重要因素。不久前,微软在发布了一份环境报告,其中透露,2022 年,公司用水量同比去年激增了 34%,较前几年大幅上涨,相当于超过 2500 个奥林匹克规格的游泳池水量,外部研究人员认为这与微软的人工智能研究有关。
六,维护和更新
模型需要定期维护和更新,以确保其性能、准确性和可用性。这可能需要定期的软件更新、改进和监控。
七,法规合规成本
符合各种法规和规定,如数据保护法规(如GDPR)和其他监管要求,也可能需要额外的成本,包括法律顾问和合规团队的费用。
八,性能优化和扩展
不断提高 ChatGPT 的性能和可扩展性可能需要投资于研究和开发,以应对更大的用户需求。总之,ChatGPT 等大模型的高运营成本是由多个因素共同作用造成的,包括硬件、数据、人力资源、安全、隐私和法规合规等多个方面。这些成本是维持系统高质量运行和用户满意度所必需的,同时也反映了大规模 AI 系统的复杂性。
“快速找补”的科技大厂们
有网友认为,「只有亏本经营才能获得迅速市场份额」。显然,这仅仅是一种短期策略。为了让大模型更长远地“存活”,微软等入局大模型的公司,已经想尽办法开始“补坑”。其中,最为值得关注的是,微软正在为其下一次人工智能软件升级提供更高的价格。除了按月定期收取 Microsoft 365 订阅费之外,该公司还将针对人工智能版本每月额外收取 30 美元,付费用户可以享受 AI 驱动的诸多功能,比如快速写邮件、一键把 Word 变成 PPT、快速处理 Excel 图表等。当然,也并不是微软一家这样做,据悉 Google 也为类似的 Duet AI 产品收取相同的额外费用。除了提高价格之外,知名外媒 The Information 独家爆料称,微软正在努力开发自己内部 AI 芯片,将其用在数据中心,并推动 PC 行业采用所谓的 NPU。据悉,微软有计划在下个月举行的年度开发者大会上,推出首款人工智能芯片,欲摆脱英伟达芯片带来的高昂费用。还有一些一些特殊方式正在入局 AI 大模型的企业中展开,如微软在考虑为 Bing 搜索引擎使用性能较低、成本更低的 AI 工具,还和在开源大模型领域撑起半边天的 Meta 牵手合作了;Zoom 结合了多种 AI 模型,开发了一个更为经济、简单的 AI 来降低成本;Adobe 采取积分制度,对每个月使用量设置了上限,并根据使用情况收费。
价值不明
Nature在一项1600名科学家的调查中也发现,那些在研究中使用AI的科学家中,认为AI工具现在已是“必需品”的人只占4%。简而言之,生成式AI最大的问题不是找到用例、需求,而是无法证明价值。指数风投(Index Ventures)合伙人Mark Goldberg表示,商业人工智能应用的出现曾经被寄予“光速实现”的乐观预期,但现在“出现了一种浅层次的幻灭感”:ChatGPT的初始用户增长激增,导致投资者高估了消费者将使用由生成式人工智能驱动的工具的速度。投资者在这些产品尚未拥有客户或收入之前便急于支持正在建设这些产品的初创公司,这引发了对市场可能过热的担忧。AI模型开发公司Writer的首席执行官May Habib表示,不断上升的估值反映了人们对人工智能前景的热情,但高管们很快就会更仔细地审视这些成本:我认为,明年将是生成式人工智能的融资基金消失的一年。