3月24日晚,DeepSeek低调发布其V3模型的小版本更新——DeepSeek V3-0324,这一操作立即在社区引发热议。据悉,该版本已集成至DeepSeek官网、应用程序和小程序,用户只需关闭“Deep Thinking”功能即可体验。另该模型已在Hugging Face上开源,采用MIT许可证,支持商业使用。
这一版本延续了V3系列的混合专家(MoE)架构,总参数在671B至685B之间(具体数字待官方验证),推理时仅激活37B参数。
技术亮点:效率与性能的双重突破
1. 惊艳的硬件适配与推理速度
据VentureBeat报道,V3-0324在Mac Studio(M3 Ultra,512GB RAM)上运行4位量化版本时,可达到20 tokens/秒的推理速度,仅消耗200瓦功率。对比之下,OpenAI的GPT-4o依赖NVIDIA GPU集群,功耗动辄数千瓦。这种本地运行能力得益于模型体积优化(未量化641GB,量化后352GB)和FP8混合精度训练,使其在消费级设备上也能高效运作。在NVIDIA RTX 4090上,INT8量化版本可能接近30-40 tokens/秒。
2. 代码生成能力逼近顶级模型
据用户反馈,V3-0324在编程任务中表现卓越,能生成700-800行无错代码,甚至一次性构建完整网站。据社交媒体,其在KCORES大模型竞技场中以328.3分排名第三,仅次于Claude-3.7-Sonnet-Thinking和Claude-3.5,超越DeepSeek-R1。VentureBeat则将其与Claude 3.5 Sonnet相提并论,推测这一进步源于从R1模型蒸馏的优化技术。
3. 多领域能力提升
-
数学与推理:V3-0324的知识截止日期更新至2024年7月(较V3的2023年12月更进一步),数学能力显著增强。虽非推理专属模型,其表现已接近部分闭源巨头。
-
通用性:V3-0324在前端设计(如生成海报)等创意任务中表现出色,显示出超越传统技术应用的潜力。
4. 核心技术驱动效率革命
V3-0324依托多头潜在注意力(MLA)和多token预测(MTP)技术,支持128K token上下文窗口,生成效率较传统单token预测提升近80%。MoE架构确保其低计算成本,有媒体强调其训练费用仅550-600万美元,远低于GPT-4的数千万美元。竞争已不再是“谁能构建最强AI”,而是“谁让更多人用上AI”。
对行业的冲击:OpenAI的“噩梦”?
有媒体分析,V3-0324是“OpenAI的噩梦”,原因有三:
-
成本颠覆:开源免费+低价API挑战了闭源模型的高收费模式。
-
本地化优势:20 tokens/秒的Mac Studio表现削弱了云服务的必要性。
-
性能竞争力:代码和数学能力逼近GPT-4o和Claude 3.5,足以满足大多数需求。
V3-0324在竞技场排名超越部分闭源模型,显示出开源AI的崛起潜力。若R2或V4突破推理和多模态,其影响力或超预期。当前,竞争已不再是“谁能构建最强AI”,而是“谁让更多人用上AI”。