ITValue
“有这个时间,不如去卷场景、卷应用。”
作者|张帅
编辑|盖虹达
首发|钛媒体APP
ITValue
钛媒体App 5月28日消息,在2024智能经济论坛上,百度集团执行副总裁、百度智能云事业群总裁沈抖介绍了文心系列主力大模型免费背后的原因。此外,为了加速行业大模型的落地,百度智能云推出“千帆·行业增强版”,目前已经在政务、交通、工业等行业落地。
“其实我们决定免费的原因特别朴素,就是希望大家别再天天拉表格比价格了,有这个时间,不如去卷场景、卷应用。现在成本更低了,大家创新的胆子可以更大一些、步子可以更快一些,把相关的场景都试一遍,快速验证。跑成功了,就快速复制。”沈抖表示。
此前大模型行业先后开启降价和免费热潮,字节、阿里、百度、腾讯、科大讯飞在内的多家厂商宣布降价或免费,将大模型竞争卷入新的阶段。
但就目前而言,价格并不是用户是否采用大模型的决定性因素,大模型产业链还不完备,降价更大程度起到吸引新客户的作用,是否能够留存客户,还要看大模型厂商的技术整合和生态能力。
一周前,百度智能云宣布ERNIE Speed、ERNIE Lite两款主力模型全面免费。这两个模型是客户在场景应用中经常用到的主力模型,在文案创作、聊天对话、知识问答、内容续写等场景中有较高的调用量。
沈抖表示,模型免费以及降价,主要是依托于技术能力,尤其是AI异构算力管理平台和“一云多芯”
在AI异构算力管理平台方面,百度百舸·AI异构计算平台能够对不同地点、规模、集群的智能算力进行统一、高效的管理,基于芯片性能优化、自动芯片选型、潮汐混部等技术,大幅提升智能算力效能,万卡集群上的模型有效训练时长占比超过98.8%。相同的大模型任务,百舸能够帮助客户将资源成本降低一半。据推算,百舸每年为企业客户节约的智算成本可达50亿元以上。
在“一云多芯”方面,百舸兼容昆仑芯、昇腾、海光DCU、英伟达、英特尔等国内外主流AI芯片,支持同一智算集群中混合使用不同厂商芯片,最大程度上屏蔽硬件之间差异,帮助企业摆脱单一芯片依赖,打造更有性价比、更安全、更具弹性的供应链体系。在多芯混合训练任务中,百舸能够将单芯片利用率、芯片间通信效率、集群整体效能发挥到极致,百卡规模性能损失不超过3%,千卡规模性能损失不超过5%,均为国内最高水平。
“大家非常关注自主可控。在芯片层,我们有自研的芯片昆仑芯,正在逐步推向市场;当然,如果有其它厂商的芯片,百舸计算平台也能很好地管理起来。在框架层,我们有自研的深度学习框架飞桨,已经成为国内最受欢迎的开源框架。在模型层,我们会保障模型的内容安全可控。”沈抖提到。
此外,在模型层面,千帆ModelBuilder提供的模型路由能力,能够针对任务类型自动分配合适的模型进行处理,让更便宜的小参数模型在特定场景中媲美大参数模型的效果。以小度AI助手为例,通过使用模型路由能力,相比全部任务调用旗舰版文心大模型,成本大幅下降了99%,模型响应速度也提升了200%。“即使是在复杂应用场景下,模型路由也可以节省30%的成本。”沈抖说。
此外,为了进一步降低行业大模型的开发门槛,百度智能云此次推出了千帆·行业增强版。
沈抖指出,行业大模型本质上是一个多模型的行业解决方案,由一个通用大模型和多个行业模型组合而成。这些行业模型往往由小模型精调而成,在特定领域具有很强的能力。但企业应用场景十分复杂,如果只是用一个个“孤立”的行业模型去解决特定场景的问题,那么整套工程将会非常复杂,和传统的AI开发没有区别,开发效率极低。
具体来看,千帆·行业增强版主要由资源服务、大模型服务、应用服务三部分组成,它不仅提供千帆、百舸的通用能力,在这个基础上,还做了行业能力的扩展和适配。
在资源服务方面,企业可以结合业务情况,扩展多源数据治理、云边端协同等能力,为业务构建起强大的基础设施;在大模型服务方面,企业可以在千帆平台上自由选择不同参数规模、不同上下文长度、不同细分领域的大模型,然后按需扩展行业模型、行业知识、行业智能体;在应用服务方面,支持添加运营、运维、企业环境内应用开发、应用服务等各类业务逻辑。
沈抖表示,目前,百度文心大模型已经拥有中国最大的产业落地规模,超过半数的央企正在使用百度智能云。
*温馨提示:喜欢ITValue公众号的小伙伴注意啦!根据公众号推送新规,请将ITValue设为“星标”,这样才能第一时间收到推送消息,已设置的小伙伴还需要重新设置“星标”哦
我知道你在看哦