Google又有大动作!
近日,他们发布了Gemma 2B和7B两个开源AI模型,与大型封闭模型不同,它们更适合小型任务,如聊天和文本摘要。
这两个模型在训练过程中使用了6万亿个Tokens的数据,包括网页文档、代码和数学文本,确保模型能应对广泛的文本和编程问题。
相比之下,其他知名模型如LLaMA 2的训练集都要小得多,大约只用了2万亿Tokens。
现在,你可以通过Kaggle、Hugging Face、Nvidia的NeMo以及Google的Vertex AI来获取这些模型。
Gemma模型的特点是什么?如何使用?
内容迁移微信公众号:李孟聊AI