大模型微调之 在亚马逊AWS上实战LlaMA案例(三)

大模型微调之 在亚马逊AWS上实战LlaMA案例(三)
在这里插入图片描述

使用 QLoRA 增强语言模型:Amazon SageMaker 上 LLaMA 2 的高效微调

语言模型在自然语言处理任务中发挥着关键作用,但训练和微调大型模型可能会占用大量内存且耗时。在本文中,将深入研究一种在 Amazon SageMaker 上使用 QLoRA(量化感知低阶适配器调优)来微调语言模型的方法。具体来说,将集中精力微调 LLaMA 2-70B,这是 LLaMA 语言模型的一个变体,它提供了改进的性能,并支持更大的上下文长度窗口。通过利用 Hugging Face Transformers、Accelerate 和 PEFT,可以在语言任务上取得最先进的结果,同时减少内存需求。

运行以下命令安装必要的库:

!pip install "transformers==4.31.0" "datasets[s3]==2.13.0" sagemaker --upgrade --quiet          

登录 Hugging Face 帐户以访问所需资源

!huggingface-cli login --token YOUR_TOKEN      

如果计划在本地环境中使用 Amazon SageMaker,请确保你拥有具有必要权限的 IAM 角色。

加载和准备数据集📑:
在此示例中, 将使用 Databricks Dolly 数据集,其中包含由 Databricks 员工生成的指令跟踪记录。使用 Hugging Face Datasets 库加载数据集

from datasets import load_dataset  
from random import randrange  # Load dataset from the hub  
dataset = load_dataset("databricks/databricks-dolly-15k", split="train")  print(f"Dataset size: {len(dataset)}")  
print(dataset[randrange(len(dataset))]) 

在这里插入图片描述

在这里插入图片描述

该数据集包括带有说明、上下文和响应的示例。 将使用格式化函数将组件组合成单个提示来格式化这些示例

def format_dolly(sample):  instruction = f"### Instruction\n{sample['instruction']}"  context = f"### Context\n{sample['context']}" if len(sample["context"]) > 0 else None  response = f"### Answer\n{sample['response']}"  prompt = "\n\n".join([i for i in [instruction, context, response] if i is not None])  return prompt      

将使用 Hugging Face Transformers 库对数据集进行标记和分块,以实现高效训练:

from transformers import AutoTokenizer  model_id = "meta-llama/Llama-2-70b-hf"  
tokenizer = AutoTokenizer.from_pretrained(model_id, use_auth_token=True)  
tokenizer.pad_token = tokenizer.eos_token  

在 Amazon SageMaker 上使用 QLoRA 微调 LLaMA 2-70B:

现在,大家可以深入研究微调过程。将利用 QLoRA(一种高效的微调技术)在 Amazon SageMaker 上训练 LLaMA 2-70B。为了实现这一点, 准备了一个名为 run_clm.py 的训练脚本,它使用 PEFT 实现 QLoRA 技术。

为了创建 SageMaker 训练作业, 将使用 HuggingFace Estimator,它处理端到端训练和部署任务。大家将定义超参数并使用必要的配置初始化估计器


import time  
from sagemaker.huggingface import HuggingFace  
from huggingface_hub import HfFolder  # Define Training Job Name  
job_name = f'huggingface-qlora-{time.strftime("%Y-%m-%d-%H-%M-%S")}'  
role = sagemaker.get_execution_role()  # Define hyperparameters for the training job  
hyperparameters ={  'model_id': model_id,  'dataset_path': '/opt/ml/input/data/training',  'epochs': 3,  'per_device_train_batch_size': 2,  'lr': 2e-4,  'hf_token': HfFolder.get_token(),  'merge_weights': True,  
}  # Create the HuggingFace Estimator  
huggingface_estimator = HuggingFace(  entry_point='run_clm.py',  source_dir='scripts',  instance_type='ml.g5.4xlarge',  instance_count=1,  base_job_name=job_name,  role=role,  volume_size=300,  transformers_version='4.28',  pytorch_version='1.9.0',  py_version='py3',  hyperparameters=hyperparameters,  environment={"HUGGINGFACE_HUB_CACHE": "/tmp/.cache"},  
)  # Define a data input dictionary with the uploaded S3 URIs  
data = {'training': training_input_path}  # Start the training job  
huggingface_estimator.fit(data, wait=True)    

这段代码是用于在Amazon Web Services (AWS) 的机器学习服务平台Amazon SageMaker上创建和启动一个Hugging Face模型训练作业的Python脚本。以下是与AWS相关的代码的总体说明:

  1. import time
    导入Python的time模块,用于获取当前的时间,这将用于生成训练作业的名称。

  2. from sagemaker.huggingface import HuggingFace
    sagemaker库中导入HuggingFace类。sagemaker是AWS提供的一个模块,用于与SageMaker服务进行交互。

  3. from huggingface_hub import HfFolder
    huggingface_hub模块导入HfFolder类,该模块用于与Hugging Face模型仓库交互。

  4. job_name = f'huggingface-qlora-{time.strftime("%Y-%m-%d-%H-%M-%S")}'
    创建一个格式化的字符串,用于定义训练作业的名称。名称中包含了当前的日期和时间,确保每次运行时作业名称的唯一性。

  5. role = sagemaker.get_execution_role()
    调用sagemaker模块的get_execution_role()函数来获取当前环境的执行角色。这个IAM角色将被赋予SageMaker训练作业所需的权限。

6-15. hyperparameters = {...}
定义一个字典,包含了训练作业的超参数。这些参数将传递给训练脚本,用于调整模型训练过程。

16-28. huggingface_estimator = HuggingFace(...)
实例化HuggingFace类,创建一个Hugging Face模型训练的估计器对象。该对象包含了训练作业的所有配置信息:

  • entry_point: 训练脚本的文件名。
  • source_dir: 包含训练脚本和相关文件的目录。
  • instance_type: 训练时使用的AWS实例类型。
  • instance_count: 训练时使用的实例数量。
  • base_job_name: 训练作业的基础名称。
  • role: 用于训练作业的IAM角色。
  • volume_size: 实例的EBS卷大小。
  • transformers_version, pytorch_version, py_version: 分别指定了transformers库、PyTorch框架和Python解释器的版本。
  • hyperparameters: 传递给训练脚本的超参数字典。
  • environment: 设置环境变量,这里指定了Hugging Face Hub的缓存路径。

29-30. data = {'training': training_input_path}
定义一个字典,用于指定训练数据的位置。training_input_path应该是一个S3 URI,指向存储在Amazon S3上的训练数据。

  1. huggingface_estimator.fit(data, wait=True)
    调用fit方法启动训练作业。data参数指定了训练数据的位置,wait=True参数表示脚本将等待训练作业完成。

这段代码展示了如何使用AWS的SageMaker服务和Hugging Face的库来训练机器学习模型。它利用了AWS的云基础设施和Hugging Face的预训练模型和工具来执行训练任务。

在 Amazon SageMaker 上部署微调的 LLM 2-70B:

微调过程完成后, 可以在 Amazon SageMaker 上部署微调后的 LLaMA 2-70B 模型进行推理。按着这些次序:

通过创建 HuggingFace 模型类来准备部署模型:

from sagemaker.huggingface import HuggingFaceModel  # Create the HuggingFace Model class  
huggingface_model = HuggingFaceModel(  model_data=huggingface_estimator.model_data,  role=role,  transformers_version='4.28',  pytorch_version='1.9.0',  py_version='py3',  
)   

这段代码是用于在Amazon Web Services (AWS) 的机器学习服务平台Amazon SageMaker上创建一个Hugging Face模型的Python脚本。以下是与AWS相关的代码的总体说明:

  1. from sagemaker.huggingface import HuggingFaceModel
    sagemaker.huggingface模块导入HuggingFaceModel类。sagemaker是AWS提供的一个模块,用于与SageMaker服务进行交互,而HuggingFaceModel类是用于创建和管理Hugging Face模型对象的。

2-7. huggingface_model = HuggingFaceModel( ... )
实例化HuggingFaceModel类,创建一个Hugging Face模型对象。这个对象包含了加载和部署Hugging Face模型所需的配置信息:

  • model_data: 这是指向模型数据的位置的URI,通常是在Amazon S3上的一个路径。huggingface_estimator.model_data是先前训练过程中生成的模型数据, 是一个指向S3上模型文件位置的URI。
  • role: 这是用于模型的AWS Identity and Access Management (IAM) 角色。此角色需要有权限访问S3上的模型数据以及其他任何需要的AWS资源。
  • transformers_version: 指定了Hugging Face的transformers库的版本,这里是’4.28’。这个版本需要与训练模型时使用的版本相匹配。
  • pytorch_version: 指定了PyTorch框架的版本,这里是’1.9.0’。模型需要与特定版本的PyTorch兼容。
  • py_version: 指定了Python解释器的版本,这里是’py3’,表示使用Python 3。

通过创建HuggingFaceModel对象,你可以在SageMaker上部署Hugging Face模型,以便进行推断(inference)。这个对象可以用于创建SageMaker的Endpoint,从而允许应用程序通过这个端点发送数据并接收模型推断结果。

使用 HuggingFace 模型类将模型部署到 SageMaker 端点:

# Deploy the model to a SageMaker endpoint  
predictor = huggingface_model.deploy(  initial_instance_count=1,  instance_type='ml.m5.large',  
)      

这段代码是用于在Amazon Web Services (AWS) 的机器学习服务平台Amazon SageMaker上部署一个训练好的Hugging Face模型,并创建一个可用于进行实时预测的端点(endpoint)。以下是与AWS相关的代码的详细说明:

  1. predictor = huggingface_model.deploy( ... )
    调用HuggingFaceModel对象的deploy方法来部署模型。这会创建一个SageMaker端点,该端点可以接收输入数据,使用部署的模型进行推断,并返回预测结果。

  2. initial_instance_count=1
    此参数指定了要使用的初始实例数量。在这个例子中,设置为1意味着将启动一个实例来响应预测请求。根据预测负载的需求,可以调整此值以扩展或缩减实例数量。

  3. instance_type='ml.m5.large'
    此参数指定了用于部署模型的EC2实例的类型。在这个例子中,选择了ml.m5.large,这是SageMaker提供的计算优化型实例之一,适合运行机器学习工作负载。实例类型可以根据模型的计算需求和预算进行选择。

部署完成后,predictor对象将代表SageMaker端点,可以通过它来执行预测。通常,这个端点可以被任何可以发送HTTP请求的客户端访问,使得模型的推断服务可以集成到不同的应用程序中。

此外,部署模型到SageMaker端点还涉及一些成本,因为AWS会根据实例的使用时间和存储的数据量来收费。因此,在部署模型时,需要考虑这些因素以优化成本。

需要注意的是,这段代码假定huggingface_model是之前创建的HuggingFaceModel对象,且已经包含了所有必要的配置信息,如模型数据、IAM角色、依赖库版本等。此外,还需要确保所使用的IAM角色具有创建和操作SageMaker端点所需的权限。

通过发送输入文本和接收预测,利用部署的模型进行推理:

# Perform inference using the deployed model  
input_text = "What is the meaning of life?"  
response = predictor.predict(input_text)  
print(response)      

本文 探索了一种在 Amazon SageMaker 上使用 QLoRA 微调语言模型的有效方法。通过利用 Hugging Face Transformers、Accelerate 和 PEFT 的强大功能, 在降低内存需求的同时提高了性能。使用 QLoRA 微调 LLaMA 2-70B 能够在语言任务上取得最先进的结果,同时减少训练时间和成本💰。体验一下,释放微调大型语言模型的潜力!

大模型技术分享

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

《企业级生成式人工智能LLM大模型技术、算法及案例实战》线上高级研修讲座

模块一:Generative AI 原理本质、技术内核及工程实践周期详解
模块二:工业级 Prompting 技术内幕及端到端的基于LLM 的会议助理实战
模块三:三大 Llama 2 模型详解及实战构建安全可靠的智能对话系统
模块四:生产环境下 GenAI/LLMs 的五大核心问题及构建健壮的应用实战
模块五:大模型应用开发技术:Agentic-based 应用技术及案例实战
模块六:LLM 大模型微调及模型 Quantization 技术及案例实战
模块七:大模型高效微调 PEFT 算法、技术、流程及代码实战进阶
模块八:LLM 模型对齐技术、流程及进行文本Toxicity 分析实战
模块九:构建安全的 GenAI/LLMs 核心技术Red Teaming 解密实战
模块十:构建可信赖的企业私有安全大模型Responsible AI 实战 

Llama3关键技术深度解析与构建Responsible AI、算法及开发落地实战

1、Llama开源模型家族大模型技术、工具和多模态详解:学员将深入了解Meta Llama 3的创新之处,比如其在语言模型技术上的突破,并学习到如何在Llama 3中构建trust and safety AI。他们将详细了解Llama 3的五大技术分支及工具,以及如何在AWS上实战Llama指令微调的案例。
2、解密Llama 3 Foundation Model模型结构特色技术及代码实现:深入了解Llama 3中的各种技术,比如Tiktokenizer、KV Cache、Grouped Multi-Query Attention等。通过项目二逐行剖析Llama 3的源码,加深对技术的理解。
3、解密Llama 3 Foundation Model模型结构核心技术及代码实现:SwiGLU Activation Function、FeedForward Block、Encoder Block等。通过项目三学习Llama 3的推理及Inferencing代码,加强对技术的实践理解。
4、基于LangGraph on Llama 3构建Responsible AI实战体验:通过项目四在Llama 3上实战基于LangGraph的Responsible AI项目。他们将了解到LangGraph的三大核心组件、运行机制和流程步骤,从而加强对Responsible AI的实践能力。
5、Llama模型家族构建技术构建安全可信赖企业级AI应用内幕详解:深入了解构建安全可靠的企业级AI应用所需的关键技术,比如Code Llama、Llama Guard等。项目五实战构建安全可靠的对话智能项目升级版,加强对安全性的实践理解。
6、Llama模型家族Fine-tuning技术与算法实战:学员将学习Fine-tuning技术与算法,比如Supervised Fine-Tuning(SFT)、Reward Model技术、PPO算法、DPO算法等。项目六动手实现PPO及DPO算法,加强对算法的理解和应用能力。
7、Llama模型家族基于AI反馈的强化学习技术解密:深入学习Llama模型家族基于AI反馈的强化学习技术,比如RLAIF和RLHF。项目七实战基于RLAIF的Constitutional AI。
8、Llama 3中的DPO原理、算法、组件及具体实现及算法进阶:学习Llama 3中结合使用PPO和DPO算法,剖析DPO的原理和工作机制,详细解析DPO中的关键算法组件,并通过综合项目八从零开始动手实现和测试DPO算法,同时课程将解密DPO进阶技术Iterative DPO及IPO算法。
9、Llama模型家族Safety设计与实现:在这个模块中,学员将学习Llama模型家族的Safety设计与实现,比如Safety in Pretraining、Safety Fine-Tuning等。构建安全可靠的GenAI/LLMs项目开发。
10、Llama 3构建可信赖的企业私有安全大模型Responsible AI系统:构建可信赖的企业私有安全大模型Responsible AI系统,掌握Llama 3的Constitutional AI、Red Teaming。

解码Sora架构、技术及应用

一、为何Sora通往AGI道路的里程碑?
1,探索从大规模语言模型(LLM)到大规模视觉模型(LVM)的关键转变,揭示其在实现通用人工智能(AGI)中的作用。
2,展示Visual Data和Text Data结合的成功案例,解析Sora在此过程中扮演的关键角色。
3,详细介绍Sora如何依据文本指令生成具有三维一致性(3D consistency)的视频内容。 4,解析Sora如何根据图像或视频生成高保真内容的技术路径。
5,探讨Sora在不同应用场景中的实践价值及其面临的挑战和局限性。

二、解码Sora架构原理
1,DiT (Diffusion Transformer)架构详解
2,DiT是如何帮助Sora实现Consistent、Realistic、Imaginative视频内容的?
3,探讨为何选用Transformer作为Diffusion的核心网络,而非技术如U-Net。
4,DiT的Patchification原理及流程,揭示其在处理视频和图像数据中的重要性。
5,Conditional Diffusion过程详解,及其在内容生成过程中的作用。
三、解码Sora关键技术解密
1,Sora如何利用Transformer和Diffusion技术理解物体间的互动,及其对模拟复杂互动场景的重要性。
2,为何说Space-time patches是Sora技术的核心,及其对视频生成能力的提升作用。
3,Spacetime latent patches详解,探讨其在视频压缩和生成中的关键角色。
4,Sora Simulator如何利用Space-time patches构建digital和physical世界,及其对模拟真实世界变化的能力。
5,Sora如何实现faithfully按照用户输入文本而生成内容,探讨背后的技术与创新。
6,Sora为何依据abstract concept而不是依据具体的pixels进行内容生成,及其对模型生成质量与多样性的影响。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/pingmian/8820.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

STM32 各外设GPIO配置

高级定时器TIM1/TIM8 通用定时器TIM2/3/4/5 USART SPI I2S I2C接口 BxCAN SDIO ADC/DAC 其它I/O功能

【数据库原理及应用】期末复习汇总高校期末真题试卷08

试卷 一、选择题(每题 2 分,共 30 分)    1. ___ ____是长期存储在计算机内的有组织,可共享的数据集合. A.数据库管理系统 B.数据库系统 C.数据库 D.文件组织 2. 数据库类型是按照 来划分…

照片格式怎么转换jpg?利用在线图片处理工具完成操作

图片有许多不同的格式类型,其中我们最常见的是jpg和png等。通常在平台上上传图片时,大多数要求使用jpg格式较多,但你知道吗?不同的设备和软件可能有不同的默认保存格式。如果你发现你的照片不是jpg格式,该如何转换呢&a…

基于springboot+mybatis+vue的项目实战之前端

步骤: 1、项目准备:新建项目,并删除自带demo程序,修改application.properties. 2、使用Apifox准备好json数据的mock地址 3、编写基于vue的静态页面 4、运行 整个的目录结构如下: 0、项目准备 新建项目&#xff0…

MindSponge分子动力学模拟——软件架构

技术背景 在前面一篇文章中,我们介绍了MindSponge的两种不同的安装与使用方法,让大家能够上手使用。这篇文章主要讲解MindSponge的软件架构,并且协同mindscience仓库讲解一下二者的区别。 整体架构 首先我们来了解一下MindSponge独立仓库的…

全新策略打造智慧公厕,引领智慧城市公共卫生的信息化发展

智慧公厕的建设至关重要,要确保高质量、高效率,并以人民为中心。在规划方面,融合各种高精尖的技术是必不可少的。而在使用方面,提供更多贴心智能设备是体现温度的关键。让人民群众能够享受到更多的获得感、幸福感和安全感&#xf…

RK3568平台(基础篇)linux错误码

一.概述 linux应用程序开发过程中,经常会遇到一些错误信息的返回,存在的可能性有,参数有误、非法访问、系统资源限制、设备/文件不存在、访问权限限制等等。对于这类错误,可以通过perror函数输出具体描述,或者通过str…

CCF-Csp算法能力认证, 202303-1田地丈量(C++)含解析

前言 推荐书目,在这里推荐那一本《算法笔记》(胡明),需要PDF的话,链接如下 「链接:https://pan.xunlei.com/s/VNvz4BUFYqnx8kJ4BI4v1ywPA1?pwd6vdq# 提取码:6vdq”复制这段内容后打开手机迅雷…

内网安全综合管理系统是什么 | 好用的那我王安全管理系统有哪些

内网安全综合管理系统是指一种集成终端管理、网络管理、内容管理、资产管理等功能的综合性安全管理系统。它主要对内网上的主机进行统一安全管理,包括对网络主机用户操作实施监督控制,并对主机中的安全软件(如主机入侵监测系统、主机防火墙和…

python将两张图片对齐

目录 需要对齐的照片如下: 源码: 结果: 需要对齐的照片如下: 源码: import cv2 import numpy as np from matplotlib import pyplot as plt# 读取两张图片 imgA cv2.imread(./out/out/3.png) imgB cv2.imread(./…

Redis如何保证数据一致性?

Redis如何保证数据一致性? Redis通常作为持久层数据库(例如MySQL)的缓存层,如果缓存或者数据库数据发生改变,如何保证双方的数据是一致的? 这其实是要分情况讨论滴,对数据一致性不同的要求有不…

Tomcat、MySQL、Redis最大支持说明

文章目录 一、Tomcat二、MySQL三、Redis1、最大连接数2、TPS、QPS3、key和value最大支持 一、Tomcat 查看SpringBoot内置Tomcat的源码,如下: 主要就是看抽象类AbstractEndpoint,可以看到默认的核心线程数10,最大线程数200 通过…

docker学习笔记(三)搭建NFS服务实验

目录 什么是NFS 简单架构​编辑 一.搭建nfs服务器 二.新建共享目录和网页文件 三.设置共享目录 四:创建使用nfs共享目录的卷 五:创建容器使用nfs-web-1卷 六:测试访问 七:是否同步测试 什么是NFS NFS 服务器:ne…

autodl 上 使用 LLaMA-Factory 微调 中文版 llama3

autodl 上 使用 LLaMA-Factory 微调 中文版 llama3 环境准备创建虚拟环境下载微调工具 LLaMA-Factory下载 llama3-8B开始微调测试微调结果模型合并后导出vllm 加速推理 环境准备 autodl 服务器: https://www.autodl.com/console/homepage/personal 基本上充 5 块钱…

美团二面:SpringBoot读取配置优先级顺序是什么?

引言 Spring Boot作为一种轻量级的Java应用程序框架,以其开箱即用、快速搭建新项目的特性赢得了广大开发者的青睐。其核心理念之一就是简化配置过程,使开发者能够快速响应复杂多变的生产环境需求。为了实现这一点,Spring Boot支持丰富的外部…

接口加密解决方案:Python的各种加密实现

01 前言 在现代软件开发中,接口测试已经成为了不可或缺的一部分。随着互联网的普及,越来越多的应用程序都采用了接口作为数据传输的方式。接口测试的目的是确保接口的正确性、稳定性和安全性,从而保障系统的正常运行。 在接口测试中&#…

Spring Security初探

url说明方法/login/oauth/authorize无登录态时跳转到/authentication/require,有登录态时跳转到/loginorg.springframework.security.oauth2.provider.endpoint.AuthorizationEndpoint#authorize/authentication/require自己写的用于重定向到登录页面的urlcn.merryy…

市场公关人的日常工作是什么?

作为一个从事多年的市场公关人,每到别人放假的时候就是我们最忙的时候,手上几个KOL项目安排探店,同时还要筹备品牌VIP活动。扎堆的事情每天忙得睁眼就是工作。 基本上来说,公关人是挺苦逼的,并没有大家看上去那么光鲜…

Julia编程语言基本语法

1、Julia读取/保存csv数据 读取: using CSV df CSV.read("mydata.csv")保存为csv格式: # 创建 DataFrame df DataFrame(height h, discharge q) # 将 DataFrame 写入 CSV 文件 CSV.write("output.csv", df)报错:Un…

Ruby中的字符串转换方法

在Ruby中,你可以使用各种方法来转换字符串。下面是一些常用的方法,当然选择哪种适用的方法还得更具具体项目来做调整。日常使用中下面的错误也是比较常见的,看看我们怎么处理哈。 1、问题背景 在Python中,内置的数据结构都有一个…