Llama 2: 深入探讨ChatGPT的开源挑战者

Llama 2:开源挑战者深度解析

摘要

本文深入探讨了Llama 2的能力,并提供了在Google Colab上通过Hugging Face和T4 GPU设置这个高性能大型语言模型的详细指南。Llama 2是由Meta与Microsoft合作开发的开源大型语言模型,旨在重新定义生成式人工智能和自然语言理解的领域。本文还介绍了Llama 2的规模、上下文长度、组查询注意力等创新之处,以及如何通过Hugging Face在Google Colab上运行Llama 2模型。最后,本文总结了Llama 2与GPT模型及其前身Llama 1的区别,以及当前面临的挑战。

1. Llama 2简介

Llama 2是由Meta与Microsoft合作开发的开源大型语言模型,旨在重新定义生成式人工智能和自然语言理解的领域。Llama 2不仅是一个在数TB数据上训练的统计模型,更是一种哲学的体现,强调开源方法作为人工智能发展的基础,特别是在生成式人工智能领域。

2. 技术深度解析

2.1 训练架构

Llama 2使用自动回归变压器架构进行预训练,并在人类反馈的强化学习(Reinforcement Learning with Human Feedback, RLHF)的基础上进行微调,以更好地符合人类行为和偏好。

2.2 预训练与数据效率

Llama 2的预训练创新在于其预训练制度。模型从其前身Llama 1中汲取灵感,但引入了几个关键的改进来提升其性能。特别是,总训练令牌数增加了40%,上下文长度扩大了两倍。此外,模型利用分组查询注意力(Grouped Query Attention, GQA)来放大推理的可扩展性。

2.3 监督微调与强化学习

Llama-2-chat已经通过监督微调(Supervised Fine-Tuning, SFT)和强化学习与人类反馈(RLHF)进行了严格的微调。在RLHF框架中,SFT是一个重要组成部分,用于调整模型的响应,使其更符合人类的偏好和期望。

3. 设置Llama 2

3.1 从Meta Git仓库下载

  1. 访问Meta官方网站,点击“下载模型”。
    1. 填写详细信息,阅读并接受条款和条件。
    1. 提交表格后,您将收到来自Meta的电子邮件,其中包含从其git仓库下载模型的链接。
    1. 执行download.sh脚本。

3.2 从Hugging Face下载

  1. 在获得Meta的访问权限后,前往Hugging Face。
    1. 选择所需的模型并提交访问请求。
    1. 在1-2天内,您将收到“授予访问”的电子邮件。
    1. 在Hugging Face账户的“设置”中创建访问令牌。

4. 在Google Colab上运行Llama 2

4.1 安装包

!pip install transformers
!huggingface-cli login

4.2 导入必要的Python库

from transformers import AutoTokenizer
import transformers
import torch

4.3 初始化模型和分词器

model = "meta-llama/Llama-2-7b-chat-hf"
tokenizer = AutoTokenizer.from_pretrained(model)

4.4 设置管道

pipeline = transformers.pipeline("text-generation",model=model,torch_dtype=torch.float16,device_map="auto")```
### 4.5 生成文本序列```python
sequences = pipeline('Who are the key contributors to the field of artificial intelligence?\n',do_sample=True,top_k=10,num_return_sequences=1,eos_token_id=tokenizer.eos_token_id,max_length=200)for seq in sequences:print(f"Result: {seq['generated_text']}")```
## 5. Llama 2的特点### 5.1 规模多样性Llama 2提供不同参数的多种模型选项,规模从70亿到7亿参数不等,为不同的计算需求提供多种配置。### 5.2 增强的上下文长度模型的上下文长度比Llama 1增加了4K个令牌,使其能够保留更多信息,从而提高其理解和生成更复杂和广泛内容的能力。### 5.3 组查询注意力(GQA)该架构使用GQA的概念,通过缓存之前的令牌对来加速注意力计算过程。这有效地提高了模型的推理可扩展性,从而提高其可访问性。## 6. 结论本文介绍了如何在Google Colab上通过Hugging Face支持设置Llama 2模型以进行文本生成。Llama 2的性能得益于从自动回归变压器架构到强化学习与人类反馈(RLHF)的一系列先进技术。凭借高达700亿个参数和诸如Ghost Attention等功能,该模型在某些领域超越了当前行业标准,并且由于其开源性质,为自然语言理解和生成式人工智能的新时代铺平了道路。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/752047.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

HBase在表操作--显示中文

启动HBase后,Master和RegionServer两个服务器,分别对应进程为HMaster和HRegionServe。(可通过jps查看) 1.进入表操作 hbase shell 2.查看当前库中存在的表 list 3.查看表中数据(注:学习期间可用&#…

RUST egui部署到github

Dist 接上文,当用trunk serve编译部署后,工程目录下就会有一个dist目录,这个目录就是用来部署用的。 :) Github repo 创建一个github repo,这个repo的名称有固定格式要求,就是你自己的用户名…

将FastSAM中的TextPrompt迁移到MobileSAM中

本博文简单介绍了SAM、FastSAM与MobileSAM,主要关注于TextPrompt功能的使用。从性能上看MobileSAM是最实用的,但其没有提供TextPrompt功能,故而参考FastSAM中的实现,在MobileSAM中嵌入TextPrompt类。并将TextPrompt能力嵌入到MobileSAM官方项目提供的gradio.py部署代码中,…

【JVM】生产内存占用异常优化 (一)

记录一次 - 内存占用优化 某个导出,导出数据量过大总是导致OOM,但是根据需求,导出数据大小并没有那么大 按照导出数据的查询来看 SELECTg.inventory_code,g.visit_record_code,g.recovery_price AS transactionAmount FROM crm_goods g ...…

「Linux系列」Linux 文件与目录管理

文章目录 一、Linux 文件与目录管理案例 1: 创建文件和目录案例 2: 移动和重命名文件案例 3: 复制文件和目录案例 4: 删除文件和目录案例 5: 查看文件和目录信息案例 6: 更改文件权限案例 7: 创建符号链接案例 8: 查找文件案例 9: 使用通配符创建和删除文件案例 10: 创建具有特…

小迪安全41WEB 攻防-通用漏洞XMLXXE无回显DTD 实体伪协议代码审计

#知识点: 1、XML&XXE-原理&发现&利用&修复等 2、XML&XXE-黑盒模式下的发现与利用 3、XML&XXE-白盒模式下的审计与利用 4、XML&XXE-无回显&伪协议&产生层面 #思路点: 参考:https://www.cnblo…

Linux 块设备驱动

Linux 三大驱动分别是:字符设备驱动、块设备驱动、网络设备驱动。 块设备是针对存储设备的,比如 SD 卡、EMMC、NAND Flash、Nor Flash、SPI Flash、机械硬盘、固态硬盘等。因此块设备驱动其实就是这些存储设备驱动,块设备驱动相比字符设备驱…

CentOS 7 编译安装 Git

CentOS 7 编译安装 Git 背景来源删除旧版本 Git安装依赖包下载 Git 源代码检验相关依赖,设置安装路径编译安装添加 Git 环境变量重新加载配置文件查看版本号参考文献 背景来源 为什么要安装新版本呢? 因为无聊,哈哈哈,其实也不是…

Linux下进程的调度与切换

🌎进程的调度与切换 文章目录: 进程的调度与切换 进程切换 进程调度       活动状态进程队列       位图判断       过期队列 总结 前言: 在Linux操作系统中,进程的调度与切换是操作系统核心功能之一&#xff…

RabbitMq——direct交换器、fanout交换器、 topic交换器

direct交换器: @Configuration =发送= @Bean protected Queue queue(){ Queue queue = new Queue(“myQueue”) return queue; } amqpTemplate.convertAndSend("myQueue","这是发送的内容"); 发送RabbitMq 发送成功 =接收=消费者(新项目)…

【JACS】:用于稳定单原子分散的催化剂架构可对吸附到 Pt 原子、氧化 Pt 簇和 TiO2上金属 Pt 簇的 CO 进行特定位点光谱和反应性测量

摘要:氧化物负载的贵金属纳米粒子是广泛使用的工业催化剂。由于费用和稀有性,开发降低贵金属纳米颗粒尺寸并稳定分散物质的合成方案至关重要。负载型原子分散的单贵金属原子代表了最有效的金属利用几何结构,尽管由于合成均匀且稳定的单原子分…

spring boot唯一性判断不满足后,如何Transactional回滚

在Spring Boot中,如果需要在唯一性判断不满足时进行事务回滚,可以通过以下方式实现: 首先,确保你的方法添加了Transactional注解,这会使得该方法在一个数据库事务中执行,如果方法中出现任何异常&#xff0…

《论文阅读》E-CORE:情感相关性增强的移情对话生成 EMNLP 2023

《论文阅读》E-CORE:情感相关性增强的移情对话生成 EMNLP 2023 前言摘要模型架构图构建边的构建和初始化节点的初始化图更新情感相关性加强解码损失函数总结前言 亲身阅读感受分享,细节画图解释,再也不用担心看不懂论文啦~ 无抄袭,无复制,纯手工敲击键盘~ 今天为大家带来…

IOS面试题object-c 121-125

121. 简述Category 在编译过后,是在什么时机与原有的类合并到一起的? ?1. 程序启动后,通过编译之后,Runtime 会进行初始化,调用 _objc_init。 2. 然后会 map_images。 3. 接下来调用 map_images_nolock。 4. 再然后就是 read_images,这个方法会读取所有的类的相关信息。…

2.3 性能度量

目录 2.3.1 错误路和精度 2.3.2 查准率,查全率与F1 2.3.4 代价敏感错误率与代价曲线 对学习器的泛化性能进行评估,不仅需要有效可行的实验估计方法,还需要有衡量模型泛化能力的评价标准,这就是性能度量(performance measure).性能度量反映了任务需求,…

uwsgi+nginx+django 部署学习

收集静态文件及部署配置 DEBUG False STATICFILES_DIRS [os.path.join(BASE_DIR, "static"), ] STATIC_ROOT /data/static python3 manage.py collectstatic 收集静态文件,成功后可在STATIC_ROOT目录查看 安装依赖 pip3 install uwsgi django项目结…

粤嵌6818开发板通过MobaXterm使用SSH连接开发板

链接:https://pan.baidu.com/s/18ISP4Ub1HtQx6jCvTQTUHw?pwdfjmu 提取码:fjmu 1.把SSH_config.tar.bz 下载到开发板中 2.解压 SSH_config.tar.bz 解压命令:tar -xzvf SSH_config.tar.bz 3.配置SSH 进入SSH/openssh目录&am…

Python二级备考(1)考纲+基础操作

考试大纲如下: 基本要求 考试内容 考试方式 比较希望能直接刷题,因为不懂的比较多可能会看视频。 基础操作刷题: 知乎大头计算机1-13题 import jieba txtinput() lsjieba.lcut(txt) print("{:.1f}".format(len(txt)/len(ls)…

鸿蒙Next 支持数据双向绑定的组件:Checkbox--Search--TextInput

Checkbox $$语法,$$绑定的变量发生变化时,会触发UI的刷新 Entry Component struct MvvmCase { State isMarry:boolean falseStatesearchText:string build() {Grid(){GridItem(){Column(){Text("checkbox 的双向绑定")Checkbox().select($$…

【GPT-SOVITS-04】SOVITS 模块-鉴别模型解析

说明:该系列文章从本人知乎账号迁入,主要原因是知乎图片附件过于模糊。 知乎专栏地址: 语音生成专栏 系列文章地址: 【GPT-SOVITS-01】源码梳理 【GPT-SOVITS-02】GPT模块解析 【GPT-SOVITS-03】SOVITS 模块-生成模型解析 【G…