Meta 发布地表最大、最强大模型 Llama 3.1

最近这一两周看到不少互联网公司都已经开始秋招提前批了。不同以往的是,当前职场环境已不再是那个双向奔赴时代了。求职者在变多,HC 在变少,岗位要求还更高了。

最近,我们又陆续整理了很多大厂的面试题,帮助一些球友解惑答疑,分享技术面试中的那些弯弯绕绕。

《大模型面试宝典》(2024版) 发布!

《AIGC 面试宝典》圈粉无数!

喜欢本文记得收藏、关注、点赞。更多实战和面试交流,欢迎交流


近日,Meta 公开发布了 Llama 3.1 405B,为这是目前世界上最大、功能最强的开源基础模型。到目前为止,Llama的所有版本的下载量已超过3亿次。

介绍 Llama 3.1

Llama 3.1 405B 是第一个在通用知识、操控性、数学、工具使用和多语言翻译等方面达到当前先进水平的 AI 模型。随着 405B 模型的发布,我们将全力推动创新,带来前所未有的增长和探索机会。我们相信,新一代拉玛将引发新的应用和建模范式,包括合成数据生成,以帮助改进和训练较小的模型,以及模型蒸馏——这是在开源领域从未实现过的能力。

在此次最新版本中,我们推出了升级版的8B和70B模型。这些模型支持多种语言,上下文长度大幅提升至128K,具备最先进的工具使用能力和整体更强的推理能力。这使得我们的最新模型能够支持高级用例,如长篇文本摘要、多语言对话代理和编程助手等。我们还对许可证进行了更改,允许开发者使用Llama模型(包括405B)来改进其他模型。正如我们对开源的承诺,从今天起,我们将在llama.meta.com和Hugging Face上向社区开放这些模型的下载,并在我们的广泛合作伙伴平台生态系统上供立即开发使用。

模型的评测

对于此次发布,我们对150多个涵盖多种语言的基准数据集进行了性能评估。此外,我们还进行了广泛的人工评估,在现实世界场景中比较Llama 3.1与竞争对手模型的表现。我们的实验评估表明,我们的旗舰模型在包括GPT-4、GPT-4o和Claude 3.5 Sonnet在内的多种任务上与领先的基础模型具有竞争力。此外,我们的较小模型与具有相似参数数的封闭和开放模型具有竞争力。

图片

图片

图片

Model Architecture

As our largest model yet, training Llama 3.1 405B on over 15 trillion tokens was a major challenge. To enable training runs at this scale and achieve the results we have in a reasonable amount of time, we significantly optimized our full training stack and pushed our model training to over 16 thousand H100 GPUs, making the 405B the first Llama model trained at this scale.

图片

为了解决这个问题,我们做出了一些设计决策,旨在确保模型开发过程具有可扩展性和直观性。

  • 我们选择了一种标准的仅包含解码器的变换器模型架构,并对其进行了一些微小的调整,以最大限度地提高训练的稳定性。

  • 我们采用了迭代的后训练流程,每一轮都采用监督微调和直接偏好优化。这使我们能够为每一轮生成最高质量的合成数据,并提高每个能力的性能。

与之前的版本相比,我们在预训练和后训练的数据使用方面都提高了数据的数量和质量。这些改进包括开发更仔细的预处理和数据整理流程,以及更严格的质量保证和数据过滤方法。

正如预期的语言模型缩放定律那样,我们的新旗舰模型在性能上优于使用相同程序训练的较小模型。我们还使用405B参数模型来提升我们较小模型的后训练质量。

Instruction and chat fine-tuning

在Llama 3.1 405B版本中,我们致力于提高模型对用户指令的响应速度、质量和详细指令遵循能力,同时确保高水平的安全性。我们面临的最大挑战是支持更多的功能、128K上下文窗口和模型尺寸的增加。

在后训练阶段,我们通过在预训练模型之上进行多轮对齐来生成最终的聊天模型。每一轮都包括监督微调(SFT)、拒绝采样(RS)和直接偏好优化(DPO)。我们使用合成数据生成来产生大多数的SFT示例,并多次迭代以生成所有功能的更高质量的合成数据。此外,我们还投资于多种数据处理技术,以过滤出最高质量的合成数据。这使我们能够在功能上扩展微调数据的数量。

我们仔细平衡数据,以在所有能力方面生成高质量的模型。例如,即使将上下文扩展到128K,我们仍会保持短上下文基准上的模型质量。同样,即使我们添加了安全缓解措施,我们的模型仍将继续提供最有帮助的答案。

The Llama system

羊驼模型(Llama models)的设计初衷是作为整体系统的一部分,以协调包括调用外部工具在内的多个组件。我们的愿景是超越基础模型,为开发人员提供更广泛的系统访问权限,使他们能够根据自己的愿景设计和创建定制化产品。这种思维始于去年,当时我们首次将核心LLM之外的组件纳入其中。

作为我们持续致力于在模型层之外负责任地开发人工智能并帮助他人这样做的一部分,我们正在发布一套完整的参考系统,其中包括几个示例应用程序和新的组件,如多语言安全模型“Llama Guard 3”和提示注入过滤器“Prompt Guard”。这些示例应用程序是开源的,社区可以基于它们进行构建。

这个Llama系统愿景中的组件实现仍然比较分散。因此,我们已经开始与行业、初创企业和更广泛的社区合作,以更好地定义这些组件的接口。为此,我们在GitHub上发布了一份“Llama栈”的征求意见稿。Llama栈是一套标准化且有倾向性的接口,用于构建标准的工具链组件(微调、合成数据生成)和有主动性的应用程序。我们的希望是这些接口能够在生态系统中得到采用,从而促进更便捷的互操作性。

我们欢迎反馈和改进提案的方法。我们很高兴能够促进Llama生态系统的发展,并降低开发者和平台提供商的进入门槛。

Openness drives innovation开放推动创新。

Unlike closed models, Llama model weights are available to download. Developers can fully customize the models for their needs and applications, train on new datasets, and conduct additional fine-tuning. This enables the broader developer community and the world to more fully realize the power of generative AI. Developers can fully customize for their applications and run in any environment, including on prem, in the cloud, or even locally on a laptop—all without sharing data with Meta.

While many may argue that closed models are more cost effective, Llama models offer some of the lowest cost per token in the industry, according to testing by Artificial Analysis. And as Mark Zuckerberg noted, open source will ensure that more people around the world have access to the benefits and opportunities of AI, that power isn’t concentrated in the hands of a small few, and that the technology can be deployed more evenly and safely across society. That’s why we continue to take steps on the path for open access AI to become the industry standard.

We’ve seen the community build amazing things with past Llama models including an AI study buddy built with Llama and deployed in WhatsApp and Messenger, an LLM tailored to the medical field designed to help guide clinical decision-making, and a healthcare non-profit startup in Brazil that makes it easier for the healthcare system to organize and communicate patients’ information about their hospitalization, all in a data secure way. We can’t wait to see what they build with our latest models thanks to the power of open source.

Building with Llama 3.1 405B

对于普通开发者来说,在405B这种规模上使用模型是具有挑战性的。尽管它是一个非常强大的模型,但我们认识到它需要大量的计算资源和专业知识才能使用。我们与社区进行了交流,并意识到生成式AI开发不仅仅是简单的模型提示。我们希望让每个人都能充分利用405B,包括:

  • 实时和批量推理

  • Supervised fine-tuning 监督微调

  • 针对您特定应用场景对模型进行评估

  • Continual pre-training 持续预训练

  • Retrieval-Augmented Generation (RAG)检索增强生成(RAG)

  • Function calling 函数调用

  • Synthetic data generation

这就是Llama生态系统所能提供的帮助。从第一天开始,开发者就可以利用405B模型的所有高级功能并立即开始开发。开发者还可以探索诸如易于使用的合成数据生成等高级工作流程,遵循现成的指导来进行模型精简,并通过合作伙伴提供的解决方案实现无缝RAG(推理加速),包括AWS、NVIDIA和Databricks。此外,Groq已针对云部署优化了低延迟推理,戴尔也在本地系统上实现了类似的优化。

图片

我们与诸如vLLM、TensorRT和PyTorch等关键社区项目合作,从一开始就为社区做好支持工作,确保社区做好了生产部署的准备。

我们希望405B的发布也能激发整个社区的创新,使大规模模型的推理和微调变得更加容易,从而推动下一波模型压缩研究的发展。

今天就试试Llama 3.1系列模型吧!

我们迫不及待地想看看社区会如何利用这项工作。利用多语言性和增加的上下文长度,可以构建许多有用的新体验。有了Llama Stack和新的安全工具,我们期待与开放源码社区继续负责任地合作。在发布模型之前,我们会通过多种措施进行识别、评估和缓解潜在风险,包括通过红队进行预部署风险发现演练,以及进行安全微调。例如,我们与外部和内部专家进行了广泛的红队演练,以对模型进行压力测试,并找出它们可能被意外使用的方式。(有关我们在负责任地扩展Llama 3.1模型集方面的更多信息,请参阅此博文。)

虽然这是我们目前最大的模型,但我们相信未来仍有许多新的领域值得探索,包括更适合设备的尺寸、更多的模态以及在代理平台层上的更多投资。一如既往,我们期待看到社区利用这些模型构建的令人惊叹的产品和体验。

This work was supported by our partners across the AI community. We’d like to thank and acknowledge (in alphabetical order): Accenture, Amazon Web Services, AMD, Anyscale, CloudFlare, Databricks, Dell, Deloitte, Fireworks.ai, Google Cloud, Groq, Hugging Face, IBM WatsonX, Infosys, Intel, Kaggle, Microsoft Azure, NVIDIA DGX Cloud, OctoAI, Oracle Cloud, PwC, Replicate, Sarvam AI, Scale.AI, SNCF, Snowflake, Together AI, and UC Berkeley - vLLM Project.

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/51344.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【iOS】暑期第一周——ZARA app仿写

目录 前言无限轮播图分栏控件和滚动视图自定义cell遇到的问题调整图标大小单元格附件视图设置 总结 前言 暑假学习的第一周任务是对ZARA app进行仿写,充分运用之前学习的Objective-C语言和UI控件。我在编写demo的过程中遇到了一些问题,特写该博客作为学习…

LLM与搜索推荐

重磅推荐专栏: 《大模型AIGC》 《课程大纲》 《知识星球》 本专栏致力于探索和讨论当今最前沿的技术趋势和应用领域,包括但不限于ChatGPT和Stable Diffusion等。我们将深入研究大型模型的开发和应用,以及与之相关的人工智能生成内容(AIGC)技术。通过深入的技术解析和实践经…

VScode连接服务器免密登录

1、生成 SSH 密钥对 打开终端并输入以下命令生成 SSH 密钥对: 直接搜索 cmd,然后输入: ssh-keygen -t rsa -b 4096 一直回车就好了 这时公钥存储在/Users/你的用户名/.ssh/id_rsa.pub文件里,私钥存储在/Users/你的用户名/.ss…

简单的数据结构:栈

1.栈的基本概念 1.1栈的定义 栈是一种线性表,只能在一端进行数据的插入或删除,可以用数组或链表来实现,这里以数组为例进行说明 栈顶 :数据出入的那一端,通常用Top表示 栈底 :相对于栈顶的另一端,也是固…

黑马头条vue2.0项目实战(一)——项目初始化

1. 图标素材(iconfont简介) 制作字体图标的工具有很多,推荐使用:iconfont-阿里巴巴矢量图标库。 注册账户 创建项目 可以根据项目自定义 class 前缀 上传图标到项目 生成链接,复制 css 代码,在项目中使用…

【知识梳理】Shell的变量计算

转载说明:如果您喜欢这篇文章并打算转载它,请私信作者取得授权。感谢您喜爱本文,请文明转载,谢谢。 Shell中有很多变量的计算,会用到多种运算符。例如这几种: 1. Shell中常见的算术运算符 运算符意义&…

github-page静态网页将字符串写入github库中文本文档

🏆本文收录于《CSDN问答解惑-专业版》专栏,主要记录项目实战过程中的Bug之前因后果及提供真实有效的解决方案,希望能够助你一臂之力,帮你早日登顶实现财富自由🚀;同时,欢迎大家关注&&收藏&&订阅!持续更新中,up!up!up!! 问题描述 github-page静态…

Natutre Methods|单细胞+空间转录,值得去复现的开源单细胞分析pipeline

肺癌是全球第二大最常见的癌症,也是癌症相关死亡的主要原因。肿瘤生态系统具有多种免疫细胞类型。尤其是髓系细胞,髓系细胞普遍存在,并且在促进疾病方面发挥着众所周知的作用。该篇通过单细胞和空间转录组学分析了 25 名未经治疗的腺癌和鳞状…

网络模型优化——从参数向量到性能提升的最优化之旅

网络模型优化——从参数向量到性能提升的最优化之旅 网络模型优化的核心作用 组件/步骤描述参数向量网络模型中的可学习部分,决定了模型的输出泛函最优化通过调整参数向量以最小化或最大化某个目标函数的过程目标函数用于评估模型性能的指标,如损失函数…

【初阶数据结构篇】顺序表的实现(赋源码)

文章目录 本篇代码位置顺序表和链表1.线性表2.顺序表2.1 概念与结构2.2分类2.2.1 静态顺序表2.2.2 动态顺序表 2.3 动态顺序表的实现2.3.1动态顺序表的初始化和销毁及打印2.3.2动态顺序表的插入动态顺序表的尾插动态顺序表的头插动态顺序表的在指定位置插入数据 2.3.3动态顺序表…

区块链——hardhat使用

一、引入hardhat yarn add --dev hardhat // 引入验证合约的插件 yarn add --dev nomicfoundation/hardhat-verify 二、创建hardhat项目 yarn hardhat 三、编写我们的合约 四、编译我们的合约 yarn hardhat compile 五、编写脚本部署合约以及验证合约 // 获取hardhat环境对象 c…

Python操作Redis指南

文本主要介绍使用Python中的redis-py库来操作Redis数据库,包括安装必要的包、建立和关闭连接、执行增删改查操作以及处理可能的异常。这些操作将在Python应用程序中与Redis数据库进行有效的交互。 一. 简介和包的安装 Redis是一种开源的内存数据结构存储&#xff…

Jmeter混合压测(2407)

一 压测需求: 电商作为服务端,至少需要满足并发量,QPS:100/s,TPS:20/s。例如场景: 电商交易中,商品图片请求量最多,电商服务端需要满足并发请求查询图片信息。各家可能会并发请求同一家电商商品、订单等内容。 二 压…

代码随想录算法训练营day7 | 454.四数相加II、383.赎金信、15.三数之和、18.四数之和

文章目录 454.四数相加II思路 383.赎金信思路 15.三数之和思路剪枝去重 18.四数之和思路剪枝去重复习:C中的类型转换方法 总结 今天是哈希表专题的第二天 废话不多说,直接上题目 454.四数相加II 建议:本题是 使用map 巧妙解决的问题&#x…

HarmonyOS(45) 控件拖动或者拖拽PanGesture

PanGesture实现控件拖动的效果,通过拖动的坐标位置调用position或者translate方法来更新UI的位置。效果见下图: 具体代码如下: // xxx.ets Entry Component struct PanGestureExample {State offsetX: number 0State offsetY: number 0pos…

【AI学习指南】轻量级模型-用 Ollama 轻松玩转本地大模型

目录 探索 最小的AI模型 发现 其他轻量级模型 用 Ollama 轻松玩转本地大模型 本地大模型 Ollama 快速上手 安装 手动安装 下载ollama二进制文件 添加 Ollama 作为启动服务(推荐) 安装 CUDA 驱动程序(可选 - 适用于 Nvidia GPU) 安装 ROCm(可选 - 对于 Radeo…

Typesript的type和interface的异同?

详解TypeScript中type与interface的区别_javascript技巧_脚本之家 一、相同的地方 1、都可以用来定义对象,描述函数 我们在用typescript开发的时候经常要用到数据类型定义,比如我们写一个接口或者函数的时候定义传参数据类型及字段等。这样子方便知道这…

代码随想录day21 二叉树最后一天 || 669修剪二叉树 108将有序数组转变为平衡搜索二叉树 538把搜索二叉树变为累加二叉树

669修剪二叉树 力扣题目链接 题目描述: 给你二叉搜索树的根节点 root ,同时给定最小边界low 和最大边界 high。通过修剪二叉搜索树,使得所有节点的值在[low, high]中。修剪树 不应该 改变保留在树中的元素的相对结构 (即,如果…

K8s 核心组件——API Server

1. Kubernetes API Server 概述 1.1 基本概念 Kubernetes API Server(API Server)是 Kubernetes 的核心组件之一,负责暴露 Kubernetes API 给用户和客户端,接收和处理来自客户端的请求,并将其存储到 etcd 中。Kubern…

花几千上万学习Java,真没必要!(三十一)

集合: 1、数组的特性: 2、ArrayList(动态数组): 测试代码1: package listtest.com; import java.util.ArrayList; import java.util.List; public class HashCodesArrayList { public static void ma…