想必大家今天肯定被各家大模型厂商的降价新闻刷圈了,如果说 Meta Llama 3 的开源是国外大模型市场的搅局者,那 DeepSeek-V2 就是国内大模型市场的鲶鱼,但是价格战背后是大模型基础设施优化带来的物美价廉,还是浑水摸鱼的噱头?这篇文章来逐个盘点下。
本文首发自博客 这才是大模型价格战背后的真相
我的新书《LangChain编程从入门到实践》 已经开售!推荐正在学习AI应用开发的朋友购买阅读,此书围绕LangChain梳理了AI应用开发的范式转变,除了LangChain,还涉及其他诸如 LIamaIndex、AutoGen、AutoGPT、Semantic Kernel等热门开发框架。
我在 10 天前智谱第一次降价时就聊到大模型价格战,有望今年卷到 0.1 元每百万 token,这不大家都开始放大招了。
新闻时间线
价格战的时间线应该从从 DeepSeek-V2 发布开始,毕竟自那以后新闻稿上的模型 API 调用价格计量单位从 xxx 元/千 tokens 开始变成了 xxx 元/百万 tokens,下面是一个简单的时间线:
- DeepSeek 发布全球最强开源 MoE 模型:2024-05-06,DeepSeek-V2(32K 上下文) API 的定价为:每百万 tokens 输入 1 元、输出 2 元
- 用大模型 API 就上 bigmodel.cn!:2024-05-11,智谱 AI 的 GLM-3 Turbo API 价格调整为 1 元/百万 tokens(输入输出同价)
- 2024 春季火山引擎 FORCE 原动力大会上[1]: 2024-05-15 ,字节 - Doubao-pro-128k(128K 上下文) API 的定价为:每百万 tokens 输入 5 元、输出 9 元;Doubao-lite-128k(128K 上下文) API 的定价为:每百万 tokens 输入 0.8 元、输出 1 元
- 智谱 AI 最新推出 Batch API[2]:2024-05-21,支持的模型以及价格:GLM-4 API 价格为 50 元 / 百万 tokens,GLM-3-Turbo API 价格为 0.5 元 / 百万 tokens(输入输出同价)
- 降价,立即生效!:2024-05-21,阿里云 Qwen-Long API 价格调整为每百万 tokens 输入 0.5 元、输出 2 元。
- 免费,立即生效!:2024-05-21,百度宣布 ERNIE Speed 和 ERNIE Lite 两款模型宣布免费。
模型 API 价格比较
- 真的低吗
到底是物美价廉,还是只是噱头呢,让我们去官网扒一扒模型介绍。
Qwen-Long
首先是 Qwen-Long,声称上下文长度最高 1 千万,但实际上 🥲图片
看起来这里所谓的“长上下文”是指 RAG 形式,1 千万算上了传入文档的长度,而非模型本身的长下文窗口。图片
ERNIE Speed 和 ERNIE Lite
看官网介绍,这俩儿主要适用于微调,微调后的模型调用是收费的。图片
其次,免费的是 8K 版本,个人使用下来的效果不及 ERNIE 3.5,更别提和其他比了(免费但你不会去用😂)。
图片
ERNIE Speed和 ERNIE Lite系列模型
豆包大模型
字节的豆包大模型 API 申请使用目前还需要企业认证,个人开发者无法申请;但是在扣子平台(叫云雀)间接调用过,效果差于前通义千问和 Kimi,后续个人开发者开放后我再继续测试。
结论
首先需要肯定的是,降价是好事,极大的压缩应用层探索成本,利好普通 AI 应用开发者,不过新闻稿的水分太大了,毕竟老板一看到新闻说免费,那肯定指着成本最低的用,要求赶紧去调研,做模型切换,折腾的还是打工人 🥲;除了豆包大模型没有实际测试外,其他的同价格带的还是不如 DeepSeek-V2,这些大降价模型我建议正式产品里还是先不要用
其次我希望降价策略源自模型推理服务性能优化、模型能力进步、基础设施改进,而不是恶性的价格竞争,毕竟赚不到钱,那模型能力的提升可能也到头了
预测一下,既然卷起来了,未来肯定会有大模型厂商甚至卷到反向补贴调用者(对应的就是薅羊毛的灰产也会出现),毕竟自己的生态如果出现一个明星 AI 应用产品,在宣传上那就是基础模型能力强大的最好证明.
我写过的 LangChain 相关文章合集
不可错过 👉:我创建了【AI 开发】 交流群,用于 AI 产品构建和分享交流,如果你负责的工作和这个领域强相关并且感兴趣,欢迎后台点击【交流】 ,如果觉得内容不错,欢迎点个关注,分享和在看~
参考资料
[1]
2024 春季火山引擎 FORCE 原动力大会上: https://www.volcengine.com/live/event/force-2405
[2]
智谱 AI 最新推出 Batch API: https://open.bigmodel.cn/dev/howuse/batchapi