用 LLaMA-Factory 在魔搭微调千问

今天在魔搭上把千问调优跑通了,训练模型现在在 Mac 还不支持,需要用 N 卡才可以,只能弄个N 卡的机器,或者买个云服务器。魔搭可以用几十个小时,但是不太稳定,有的时候会自动停止。

注册账号

直接手机号注册就可以.

找到对应模型

这步可能不需要,随便一个模型,只要启动了 GPU 环境就可以,如果手里有代码,直接启动环境即可。进入模型说明页,通常会有一个测试代码把代码放到 notebook 直接运行接就可以看到结果。我用了Qwen一个最小的模型 0.5B,代码和运行结果如下:

from modelscope import AutoModelForCausalLM, AutoTokenizer
device = "cuda" # the device to load the model ontomodel = AutoModelForCausalLM.from_pretrained("Qwen/Qwen1.5-0.5B-Chat",torch_dtype="auto",device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen1.5-0.5B-Chat")prompt = "你好,什么是 Java?"
messages = [{"role": "system", "content": "You are a helpful assistant."},{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(messages,tokenize=False,add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(device)generated_ids = model.generate(model_inputs.input_ids,max_new_tokens=512
)
generated_ids = [output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)

在这里插入图片描述

调优

调优模型需要几步,首先,需要准备数据,我这里就是测试一下,所以就直接用了 LLama Factory 的例子。然后,配置命令行参数进行模型训练。

  1. 安装LLaMA Factory, 通过 notebook 打开安装
git clone https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -r requirements.txt
pip install modelscope -U
  1. 运行训练命令
    –model_name_or_path 模型名称要写对
    –dataset 训练数据集名称要写对,这个名称是在/data/dataset_info.json进行配置,直接搜索 example 就可以看到
    训练很快,因为训练数据就两条,就是测试一下。
CUDA_VISIBLE_DEVICES=0 python src/train_bash.py \--stage sft \--do_train \--model_name_or_path Qwen/Qwen1.5-0.5B-Chat \  --dataset example \--template qwen \--finetuning_type lora \--lora_target q_proj,v_proj \--output_dir  output\--overwrite_cache \--overwrite_output_dir true \--per_device_train_batch_size 2 \--gradient_accumulation_steps 32 \--lr_scheduler_type cosine \--logging_steps 10 \--save_steps 1000 \--learning_rate 5e-5 \--num_train_epochs 3.0 \--plot_loss \--fp16
  1. 合并训练好的模型
    –export_dir Qwen1.5-0.5B-Chat_fine 导出的位置要写对
CUDA_VISIBLE_DEVICES=0 python src/export_model.py \--model_name_or_path Qwen/Qwen1.5-0.5B-Chat\--adapter_name_or_path output \--template qwen \--finetuning_type lora \--export_dir Qwen1.5-0.5B-Chat_fine \--export_size 2 \--export_legacy_format False
  1. 运行模型
    模型位置要写对,否则会报错。
from modelscope import AutoModelForCausalLM, AutoTokenizer
device = "cuda" # the device to load the model ontomodel = AutoModelForCausalLM.from_pretrained("/mnt/workspace/LLaMA-Factory/Qwen1.5-0.5B-Chat_fine",torch_dtype="auto",device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained("/mnt/workspace/LLaMA-Factory/Qwen1.5-0.5B-Chat_fine")prompt = "你好,纽约天怎么样?"
messages = [{"role": "system", "content": "You are a helpful assistant."},{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(messages,tokenize=False,add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(device)generated_ids = model.generate(model_inputs.input_ids,max_new_tokens=512
)
generated_ids = [output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)

现在各种开源框架很多,训练起来不复杂,但是如果想训练一个可用的生产模型,还是要花一些时间的,可以比较一下训练前和训练后,模型对纽约天气的回答,大概率出现幻觉。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/819259.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Docker:安装Redis,同时设置外网访问

step 1: 安装必要的一些系统工具   yum install -y yum-utils device-mapper-persistent-data lvm2 yum install -y libseccomp-devel Step 2: 添加软件源信息 sudo yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo ​…

每天学习一个Linux命令之make

每天学习一个Linux命令之make 简介 在Linux系统中,make命令是一个非常有用的构建工具。它根据Makefile文件中指定的规则来构建项目。make命令可以极大地简化编译、链接和安装等任务。本文将详细介绍make命令的使用方法以及可用的选项。 基本用法 make命令的基本…

css的背景

一.css的背景: 通过css背景属性,可以给页面元素增加背景样式。 背景属性可以设置背景颜色,背景图片,背景平铺,背景图片位置,背景图像固定等。 3.1背景颜色 样式名称: background-color定义…

自然语言处理: 第二十七章LLM训练超参数

前言: LLM微调的超参大致有如下内容,在本文中,我们针对这些参数进行解释 training_arguments TrainingArguments(output_dir"./results",per_device_train_batch_size4,per_device_eval_batch_size4,gradient_accumulation_steps2,optim"adamw_8bi…

【无人机/平衡车/机器人】详解STM32+MPU6050姿态解算—卡尔曼滤波+四元数法+互补滤波(文末附3个算法源码)

效果: MPU6050姿态解算-卡尔曼滤波+四元数+互补滤波 目录 基础知识详解 欧拉角

对 SuperNeurons 的复现记录

文章目录 论文源码环境步骤数据集参考备忘 论文 [1801.04380] SuperNeurons: Dynamic GPU Memory Management for Training Deep Neural Networks 源码 GitHub - linnanwang/superneurons-release: this is the release repository of superneurons 环境 Ubuntu 22.04GeFo…

OpenCV基本图像处理操作(五)——图像数据操作

数据读取 cv2.IMREAD_COLOR:彩色图像cv2.IMREAD_GRAYSCALE:灰度图像 import cv2 #opencv读取的格式是BGR import matplotlib.pyplot as plt import numpy as np %matplotlib inline imgcv2.imread(cat.jpg)数据显示 #图像的显示,也可以创建多个窗口 c…

力扣练习题(2024/4/15)

1打家劫舍 你是一个专业的小偷,计划偷窃沿街的房屋。每间房内都藏有一定的现金,影响你偷窃的唯一制约因素就是相邻的房屋装有相互连通的防盗系统,如果两间相邻的房屋在同一晚上被小偷闯入,系统会自动报警。 给定一个代表每个房屋…

数组以及稀疏矩阵的快速转置算法详细分析

一.数组: 1.数组的地址计算: 数组的地址计算比较简单,读者可以自行了解,在这里不再赘述; 2.特殊矩阵的压缩存储: 在这里我们主要说明稀疏矩阵的主要内容: (1)稀疏矩阵…

[重学Python]Day 2 Python经典案例简单习题6个

[重学Python]Day 2 Python经典案例简单习题6个 一、寻找水仙花数二、百钱百鸡三、CRAPS赌博游戏四、生成**斐波那契数列**的前20个数五、找出10000以内的**完美数**六、输出**100以内所有的素数** 项目链接:https://github.com/jackfrued/Python-100-Days 一、寻找…

J垃圾回收

J垃圾回收 1 概述2 方法区的回收3 如何判断对象可以回收3.1 引用计数法3.2 可达性分析法 4 常见的引用对象4.1 软引用4.2 弱引用4.3 虚引用4.4 终结器引用 5 垃圾回收算法5.1 垃圾回收算法的历史和分类5.2 垃圾回收算法的评价标准5.3 标记清除算法5.4 复制算法5.5 标记整理算法…

关于UAC标准音频数据传输端点的最大包长问题

1. 标准音频数据传输端点 标准音频数据传输端点(Standard AS Isochronous Audio Data Endpoint Descriptor) 是在音频流接口下,用来传输音频数据的端点。需要注意描述符结构中的两个字段:wMaxPacketSize + bInterval 。 (1) wMaxPacketSize:端点在某一时刻,发送/接收的…

sky08、09笔记常用组合逻辑电路

本节的目的是为了更好的预估delay。 1.1bit全加器 module fadd_1b( a, b, cin, s, cout ); input wire a,b,cin; output wire s,cout;wire p,g; assign p a|b;//propagate carry assign g a&b;//generate carry assign s a^b^cin; assign cout (p&cin)|g; endmodu…

使用Python脚本检测服务器信息并定时发送至管理员邮箱

在日常的系统管理工作中,监测服务器的资源占用情况至关重要,我们需要及时获得通知以便采取相应措施。我新装了一台UbuntuServer服务器,写了一个可以定期收集服务器的CPU、内存、网络和磁盘信息,并通过邮件将这些信息发送给管理员的…

github上的软件许可证是什么?如何合并本地的分支德语难学还是俄语更加难学?站在一个中国人的立场上,德语难学还是俄语更加难学?俄语跟德语有什么样的显著差别?

目录 github上的软件许可证是什么? 如何合并本地的分支 德语难学还是俄语更加难学? 站在一个中国人的立场上,德语难学还是俄语更加难学? 俄语跟德语有什么样的显著差别? github上的软件许可证是什么? …

经典问题解答(顺序表)

问题一:移除元素 给你一个数组 nums 和一个值 val,你需要 原地 移除所有数值等于 val 的元素,并返回移除后数组的新长度。 不要使用额外的数组空间,你必须仅使用 O(1) 额外空间并 原地 修改输入数组。 元素的顺序可以改变。你不…

DevOpsGPT:一个基于人工智能的软件开发自动化解决方案

DevOpsGPT是一个基于人工智能的软件开发自动化解决方案,旨在通过结合大型语言模型(LLM)和DevOps工具来提高软件开发的效率。它能够将自然语言的需求转化为可工作的软件,从而极大地简化了传统的软件开发流程1 24。DevOpsGPT的核心功能包括提高开发效率、缩短开发周期,并且无…

Mathtype安装

如何将MathType公式编辑器内嵌到WPS工具栏中 这一篇就够了 运行时错误‘53’:文件未找到:MathPage.WLL MathType嵌入到WPS mathtype与wps兼容吗 mathtype怎么加载到wps 2024最新Mathtype如何嵌入Word/WPS使用步骤技巧以及深度操作教程 如果还不行&…

信号处理相关知识

1.序列 2.数字信号的自变量一定是整数,幅度上取值是有限的状态(不一定是整数)。 3.抽取和插值

【Java开发指南 | 第一篇】类、对象基础概念及Java特征

读者可订阅专栏:Java开发指南 |【CSDN秋说】 文章目录 类、对象基础概念Java特征 Java 是一种面向对象的编程语言,它主要通过类和对象来组织和管理代码。 类、对象基础概念 类:类是一个模板,它描述一类对象的行为和状态。例如水…