当地时间6月27日,谷歌正式发布了在一个月前的I/O开发者大会上预告过的Gemma 2大模型。这款新模型相较于第一代Gemma模型,在性能和推理效率上都有了显著的提升,为AI领域带来了新的突破。
据谷歌介绍,Gemma 2模型包括9B和27B两种参数大小。其中,27B模型在性能上能够与比其大两倍的模型相媲美,展现出了惊人的实力。而9B模型也优于Meta的Llama 3 8B等相似尺寸的开源模型,进一步证明了Gemma 2在同类模型中的领先地位。
Gemma 2的突出优势不仅在于其强大的性能,更在于其效率上的提升。27B Gemma 2模型支持在单个Google Cloud TPU主机、英伟达的A100 80GB Tensor Core GPU或H100 Tensor Core GPU上以全精度运行推理。这一特性极大地降低了部署AI模型所需的硬件要求和成本,使得更多的开发者和企业能够轻松地使用这款强大的模型。
同时,谷歌还表示,Gemma 2模型在各种硬件上都能保持较快的推理速度,无论是在游戏笔记本电脑还是高端台式机上,都能为用户带来流畅的体验。这一特点使得Gemma 2模型更加适用于各种应用场景,从学术研究到商业应用都能找到其用武之地。
更重要的是,Gemma 2模型让开发者能够将AI部署到手机、个人电脑等资源受限的设备上。无需占用大量内存或处理能力,Gemma 2模型能够在这些设备上运行,为移动计算和边缘计算带来了新的可能性。
目前,Gemma 2模型已经上线Google AI Studio,开发者还可以通过数据科学社区Kaggle和开源平台Hugging Face Models下载其模型权重。谷歌还面向研究人员推出了Gemma 2学术研究计划,向他们提供Google Cloud额度,以支持他们在AI领域的研究和探索。
对于Gemma系列模型,谷歌的定义是开放而非开源。这意味着谷歌并不会分享Gemma模型的源代码、训练数据等技术细节。然而,在应用层面上,两代模型都要求用户在遵守许可协议的情况下才能进行商业使用和分发。这一策略既保护了谷歌的技术创新,也为开发者提供了使用这些强大模型的机会。
谷歌发布Gemma 2模型也是其应对AI竞争所采取的策略之一。依靠Gemini闭源模型对抗OpenAI的同时,谷歌通过Gemma模型牵制Meta的开源模型。虽然Gemma采用了和Gemini同源的技术,但其参数规模更为轻量,使得其在实际应用中具有更高的灵活性和可用性。
回顾今年2月发布的第一代Gemma模型,它具有7B和2B两种参数规模,并在各种服务平台上的下载次数超过了数百万次。以这两个小模型为基础,谷歌还陆续推出了多款变体模型,包括用于代码生成的CodeGemma、支持高效推理的RecurrentGemma以及在5月先行发布的视觉语言模型PaliGemma。这些变体模型进一步丰富了Gemma系列的功能和应用场景。
展望未来,谷歌表示计划在未来几个月内推出2.6B参数的Gemma 2模型。这款新模型将会更适用于在智能手机本地运行的场景,为移动AI应用带来新的发展机遇。随着Gemma系列模型的不断完善和扩展,我们有理由相信谷歌将在AI领域继续保持其领先地位,并为全球的开发者和用户提供更多创新、实用的AI解决方案。