LLaMA-Factory大模型微调全流程指南

该文档为LLaMA-Factory大模型微调提供了完整的技术指导,涵盖了从环境搭建到模型训练、推理和合并模型的全流程,适用于需要进行大模型预训练和微调的技术人员。

一、docker 容器服务

请参考如下资料制作 docker 容器服务,其中,挂载的目录关系如下:

1、制作 docker 容器服务的资料列表

  • 《基于docker的LLaMA-Factory全流程部署指南》

2、挂载目录列表

宿主机目录容器目录(如:docker)
./LLaMA-Factory/hf_cache/root/.cache/huggingface
./LLaMA-Factory/ms_cache/root/.cache/modelscope
./LLaMA-Factory/om_cache/root/.cache/openmind
./LLaMA-Factory/data/app/data
./LLaMA-Factory/output/app/output

二、下载模型

前往 ModelScope 下载模型,以 Qwen/Qwen2.5-3B-Instruct 模型举例,获取模型下载地址。

# 执行下面的命令,根据您的实际情况选择不同的下载方式
# 以 modelscope 方式下载(注:宿主机目录 )
# modelscope download --model Qwen/Qwen2.5-3B-Instruct README.md --local_dir ./LLaMA-Factory/ms_cache/Qwen2.5-3B-Instruct
# 以 git 方式下载(注:宿主机目录 )
git clone https://www.modelscope.cn/Qwen/Qwen2.5-3B-Instruct.git ./LLaMA-Factory/ms_cache/Qwen2.5-3B-Instruct

三、准备待微调数据

准备待微调的数据,假设已经创建文件 ./LLaMA-Factory/data/alpaca_zh_test.json(注:宿主机目录 ) 且 已经添加内容如下:

注:该 json 文件编码格式必须为UTF-8,否则,训练的模型输出内容会乱码,在linux环境可以执行file -i ./LLaMA-Factory/data/alpaca_zh_test.json 命令判断文件编码类型。

[{"instruction": "正式礼貌询问","input": "您好,能否请您详细做一下自我介绍呢?","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "日常随意询问","input": "嘿,来跟我说说你自己呗","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "好奇探索式询问","input": "我很好奇,你能讲讲自己是个怎样的存在吗?","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "开门见山式询问","input": "介绍下你自己","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "委婉请求式询问","input": "不知是否方便,能请您做个自我介绍吗?","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "引导式询问","input": "想必你有很多特别之处,能给我讲讲自己吗?","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "友好互动式询问","input": "哈喽,我们认识一下,你能介绍下自己吗?","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "礼貌请教式询问","input": "您好,想请教下您能做个自我介绍吗?","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "轻松调侃式询问","input": "嘿,快自报家门啦","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "好奇追问式询问","input": "我对您很好奇,您能详细说说自己吗?","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "简洁命令式询问","input": "做个自我介绍","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "礼貌邀请式询问","input": "您好,诚挚邀请您做个自我介绍","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "温和建议式询问","input": "要不您给我讲讲自己吧","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "俏皮询问","input": "嘿,小可爱,介绍下自己呗","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "期待式询问","input": "好期待了解您,能做个自我介绍吗?","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "试探式询问","input": "我想了解下您,不知能否做个自我介绍?","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "尊重式询问","input": "尊敬的您,能做个自我介绍让我认识下吗?","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "热情询问","input": "哇,好激动,快介绍下你自己呀","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "委婉好奇式询问","input": "有点好奇您的情况,能给我讲讲吗?","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "礼貌请求补充式询问","input": "您好,麻烦做个自我介绍,详细些更好哦","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "轻松聊天式询问","input": "咱聊聊,你先介绍下自己呗","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "直截了当初识询问","input": "初次交流,介绍下你自己","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "礼貌询问用途式","input": "您好,能介绍下自己以及您能做什么吗?","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "日常交流式询问","input": "嘿,跟我说说你是干嘛的,顺便介绍下自己","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "正式商务式询问","input": "您好,在开展交流前,烦请您做个自我介绍","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "友好好奇式询问","input": "你好呀,我很好奇你,能介绍下自己不?","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "温和请求式询问","input": "可以请您介绍下自己吗,非常感谢","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "俏皮活泼式询问","input": "哈喽呀,快蹦出你的自我介绍","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "期待好奇式询问","input": "好期待你介绍自己,快说说吧","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "礼貌求知式询问","input": "您好,想学习了解下您,能做个自我介绍吗?","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "轻松调侃好奇式询问","input": "嘿,神秘的你,快揭秘下自己","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "简洁直接式询问","input": "介绍下自己,谢谢","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "礼貌邀请详细式询问","input": "您好,邀请您详细介绍下自己","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "温和建议友好式询问","input": "要不你友好地介绍下自己呀","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "俏皮可爱式询问","input": "小可爱,快亮出你的自我介绍","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "期待热情式询问","input": "超级期待你热情介绍自己,快开始吧","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "试探礼貌式询问","input": "我想进一步认识您,不知能否麻烦您介绍下自己?","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "尊重正式式询问","input": "尊敬的您,在交流前请您做个正式自我介绍","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "热情友好式询问","input": "哇哦,友好地介绍下你自己吧","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "委婉好奇深入式询问","input": "有点好奇您更深入的情况,能详细讲讲自己吗?","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "礼貌请求丰富式询问","input": "您好,麻烦丰富地介绍下自己,谢谢","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "轻松聊天深入式询问","input": "咱深入聊聊,你先详细介绍下自己呗","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "直截了当初次交流式询问","input": "初次交流,全面介绍下你自己","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "礼貌询问多方面式","input": "您好,能介绍下自己以及您擅长的方面吗?","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "日常交流深入式询问","input": "嘿,深入跟我说说你是干嘛的,顺便好好介绍下自己","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "正式商务详细式询问","input": "您好,在合作探讨前,烦请您详细做个自我介绍","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "友好好奇全面式询问","input": "你好呀,我很好奇你各方面情况,能全面介绍下自己不?","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "温和请求细致式询问","input": "可以请您细致介绍下自己吗,十分感谢","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "俏皮活泼丰富式询问","input": "哈喽呀,快用丰富的方式介绍下自己","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "期待好奇全面式询问","input": "好期待你全面介绍自己,赶紧的","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "礼貌求知深入式询问","input": "您好,想深入学习了解下您,能详细做个自我介绍吗?","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "轻松调侃好奇深入式询问","input": "嘿,神秘的你,快深入揭秘下自己","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"},{"instruction": "简洁直接详细式询问","input": "详细介绍下自己,谢谢","output": "我是人工智能模型小智同学,具备多种能力,不管是知识问答还是内容创作等方面的问题,都可以问我。"}
]

./LLaMA-Factory/data/dataset_info.json (注:宿主机目录 ) 文件里面添加数据集信息,假设已经创建该文件且添加内容如下:

{"alpaca_zh_test": {"file_name": "alpaca_zh_test.json","formatting":"alpaca","columns": {"prompt":"instruction","query": "input","response": "output"}}
}

注:alpaca_zh_test.json 必须跟 dataset_info.json 放在同一个目录下,否则会找不到文件。

四、训练及测试

1、命令行方式

./LLaMA-Factory/data/alpaca_zh_test_train.yaml (注:宿主机目录 ) 文件里面添加用于【模型微调】的配置参数,假设已经创建该文件且添加内容如下:

# ========== 基础训练配置 ==========
# 训练阶段类型:指令监督微调(SFT)
stage: sft
# 启用训练模式(必须开启以启动训练流程)                     
do_train: true
# 模型权重路径(Hugging Face标识符或本地路径【注:容器目录】,需确保与模板匹配)
model_name_or_path: /root/.cache/modelscope/Qwen2.5-3B-Instruct
# 对话模板(Qwen系列必须使用default模板,否则影响对话格式)
template: default# ========== 数据集配置 ==========
# 数据集配置文件目录【注:容器目录】
dataset_dir: data
# 注册数据集名称(支持多个数据集逗号分隔)
dataset: alpaca_zh_test
# 文本处理最大长度(超过此值触发截断,长文本任务建议8192)
cutoff_len: 2048
# 最大训练样本数(用于限制大规模数据集内存占用)
max_samples: 100000# ========== 训练参数 ==========
# 单卡批次大小(4090显卡建议2到4,根据显存调整)
per_device_train_batch_size: 2
# 梯度累积(等效总批次=2*8=16,显存不足时优先调高此值)
gradient_accumulation_steps: 8
# 训练轮次(建议至少3轮,复杂任务需50+轮)
num_train_epochs: 50
# 初始学习率(LoRA建议0.00005,全参数微调建议0.00001)
learning_rate: 0.00005
# 学习率调度器(稳定收敛首选,对比step需配置warmup)
lr_scheduler_type: cosine
# 梯度裁剪阈值(防止梯度爆炸,常规任务建议0.5-1.0)
max_grad_norm: 1.0
# 优化器类型(优先选torch原生优化器)
optim: adamw_torch
# 首次训练/全新任务时设为false
resume_from_checkpoint: false
# 常规任务建议开启以优化内存
remove_unused_columns: true# ========== LoRA配置 ==========
# 微调策略(LoRA比QLoRA精度更高,4-bit量化选QLoRA),【注:如果是预训练模型,必须选择full】
finetuning_type: lora
# 矩阵分解维度(默认8,效果不足时可升到16)
lora_rank: 8
# 缩放系数(建议为秩的2倍,过高易过拟合)
lora_alpha: 16
# 丢弃率(常规任务设为0,数据量少时可设0.1)
lora_dropout: 0.0
# 作用模块(Qwen模型默认作用于c_attn,attn.c_proj等线性层)
lora_target: all# ========== 硬件加速配置 ==========
# 混合精度训练(A100/V100等支持BF16的显卡必开启)
bf16: true
# 自动启用FlashAttention(长序列任务显存降低30%)
flash_attn: auto
# 数据预处理线程数(建议等于CPU核数)
preprocessing_num_workers: 16
# 分布式训练超时(多卡训练需调高,单位毫秒)
ddp_timeout: 180000000# ========== 日志与模型输出 ==========
# 输出目录【注:容器目录】(含检查点和日志)
output_dir: saves/Qwen2.5-3B-Instruct/lora/train_000000001
# 覆盖已有输出目录
overwrite_output_dir: true
# 日志记录间隔(调试时建议1,常规训练5-10)
logging_steps: 5
# 模型保存间隔(根据存储空间调整,频繁保存影响速度)
save_steps: 100
# 生成损失曲线图(用于监控过拟合/欠拟合)
plot_loss: true# ========== 高级配置 ==========
# 信任远程代码(加载自定义模型结构时必须开启)
trust_remote_code: true
# 新增适配器(多任务训练时设为True防覆盖)
create_new_adapter: false
# 统计处理token数(用于计算训练成本)
include_num_input_tokens_seen: true

./LLaMA-Factory/data/alpaca_zh_test_chat.yaml (注:宿主机目录 ) 文件里面添加用于【模型推理】的配置参数,假设已经创建该文件且添加内容如下:

# 模型权重路径(Hugging Face标识符或本地路径【注:容器目录】,需确保与模板匹配)
model_name_or_path: /root/.cache/modelscope/Qwen2.5-3B-Instruct
# 输出目录【注:容器目录】(含检查点和日志)
adapter_name_or_path: saves/Qwen2.5-3B-Instruct/lora/train_000000001
# 对话模板(Qwen系列必须使用default模板,否则影响对话格式)
template: default
# 推理引擎(huggingface/vllm)
infer_backend: huggingface
# 信任远程代码(加载自定义模型结构时必须开启)
trust_remote_code: true

./LLaMA-Factory/data/alpaca_zh_test_export.yaml (注:宿主机目录 ) 文件里面添加用于【模型合并】的配置参数,假设已经创建该文件且添加内容如下:


# ========== 模型配置 ==========
# 模型权重路径(Hugging Face标识符或本地路径【注:容器目录】,需确保与模板匹配)
model_name_or_path: /root/.cache/modelscope/Qwen2.5-3B-Instruct
# 输出目录【注:容器目录】(含检查点和日志)
adapter_name_or_path: saves/Qwen2.5-3B-Instruct/lora/train_000000001
# 对话模板(Qwen系列必须使用default模板,否则影响对话格式)
template: default
# 信任远程代码(加载自定义模型结构时必须开启)
trust_remote_code: true# ========== 合并输出配置 ==========
# 必须修改:合并模型的输出目录(保存LoRA合并后的完整模型)
export_dir: output/Qwen2.5-3B-Instruct-new
# 量化后模型分片数量(仅限GPTQ量化生效,FP16/8-bit量化无效)
export_size: 5
# 导出设备类型(显存不足时设为cpu,可用gpu加速导出过程)
export_device: cpu
# 是否导出为旧版格式(兼容老版本推理框架需设为true)
export_legacy_format: false

注:以上三个文件建议跟 ./LLaMA-Factory/data/dataset_info.json 放在同一个目录下。

在宿主机的控制台执行该命令 docker exec -it llamafactory /bin/bash 进入 docker 容器,并且,在 docker 容器执行如下命令:

# 模型微调
llamafactory-cli train /app/data/alpaca_zh_test_train.yaml
# 模型推理
llamafactory-cli chat /app/data/alpaca_zh_test_chat.yaml
# 模型合并
llamafactory-cli export /app/data/alpaca_zh_test_export.yaml

2、WEB方式

请在浏览器中访问 http://localhost:7860/ ,即可访问 LLaMA-Factory 的 WEB 服务。

模型微调:除了用箭头标志的地方需要修改,其他地方建议使用默认值。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

模型微调:除了用箭头标志的地方需要修改,其他地方建议使用默认值。
在这里插入图片描述
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/900056.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【HCIA】静态综合实验练习笔记

实验拓扑图如下: 实验配置思路如下: 1、网段划分、配置IP地址 2、配置DHCP,使客户端获得ip地址 3、配置静态明细路由,内网全网通 4、配置空接口防环 5、配置优先级,实现选路最佳 6、配置缺省路由,实现公网通…

大数据(4.5)Hive聚合函数深度解析:从基础统计到多维聚合的12个生产级技巧

目录 背景一、Hive聚合函数分类与语法1. 基础聚合函数2. 高级聚合函数 二、6大核心场景与案例场景1:基础统计(SUM/COUNT)场景2:多维聚合(GROUPING SETS)场景3:层次化聚合(ROLLUP&…

RTOS基础 -- NXP M4小核的RPMsg-lite与端点机制回顾

一、RPMsg-lite与端点机制回顾 在RPMsg协议框架中: Endpoint(端点) 是一个逻辑通信端口,由本地地址(local addr)、远程地址(remote addr)和回调函数组成。每个消息都会发送到特定的…

NineData云原生智能数据管理平台新功能发布|2025年3月版

本月发布 15 项更新,其中重点发布 3 项、功能优化 11 项、性能优化 1 项。 重点发布 基础服务 - MFA 多因子认证 新增 MFA 多因子认证,提升账号安全性。系统管理员开启后,所有组织成员需绑定认证器,登录时需输入动态验证码。 数…

DAY 35 leetcode 202--哈希表.快乐数

题号202 编写一个算法来判断一个数 n 是不是快乐数。 「快乐数」 定义为: 对于一个正整数,每一次将该数替换为它每个位置上的数字的平方和。然后重复这个过程直到这个数变为 1,也可能是 无限循环 但始终变不到 1。如果这个过程 结果为 1&a…

Maven+Spring实现后端开发

一、前置知识的介绍 1.Spring 轻量级的 DI / IoC 和 AOP 容器的开源框架 容器的开源框架网址:https://spring.io/projects/spring-framework 作用:可简化管理创建和组装对象之间的依赖关系 将controller----->service------->dao层的依赖配置…

解锁界面设计密码,打造极致用户体验

界面设计是对软件、网站、移动应用等产品的用户界面进行设计的过程,旨在为用户提供美观、易用、高效的交互体验。以下是关于界面设计的一些主要方面: 一、设计原则 用户中心原则:以用户为中心,了解用户的需求、期望、行为和习惯…

Joint Receiver Design for Integrated Sensing and Communications

摘要——在本文中,我们研究了集成感知与通信(ISAC)系统的联合接收机设计,其中通信信号和目标回波信号同时被接收和处理,以在两种功能之间实现平衡性能。特别地,我们提出了两种设计方案来解决联合感知和通信问题中的接收信号处理。…

DeepSeek接入飞书多维表格,效率起飞!

今天教大家把DeepSeek接入飞书表格使用。 准备工作:安装并登录飞书;可以准备一些要处理的数据,确保数据格式正确,如 Excel、CSV 等,也可直接存储到飞书多维表格。 创建飞书多维表格:打开飞书,点…

【C语言入门】由浅入深学习指针 【第二期】

目录 1. 指针变量为什么要有类型? 2. 野指针 2.1 未初始化导致的野指针 2.2 指针越界导致的野指针 2.3 如何规避野指针 3. 指针运算 3.1 指针加减整数 3.2 指针减指针 3.3 指针的关系运算 4. 二级指针 5. 指针数组 5.1 如何使用指针数组模拟二维数组 上…

OpenCV 图形API(13)用于执行两个矩阵(或图像)逐元素乘法操作的函数mul()

操作系统:ubuntu22.04 OpenCV版本:OpenCV4.9 IDE:Visual Studio Code 编程语言:C11 描述 计算两个矩阵的每个元素的缩放乘积。 mul函数计算两个矩阵的逐元素乘积: dst ( I ) saturate ( scale ⋅ src1 ( I ) ⋅ src2 ( I ) ) …

人工智能混合编程实践:C++调用封装好的DLL进行图像超分重建

人工智能混合编程实践:C++调用封装好的DLL进行图像超分重建 前言相关介绍C++简介ONNX简介ONNX Runtime 简介**核心特点**DLL 简介**核心特点****创建与使用****应用场景****优点与挑战**图像异常检测简介应用场景前提条件实验环境项目结构C++调用封装好的DLL进行图像超分重建C…

Linux内核之高效缓冲队列kfifo

一、先说FIFO 队列是常见的一种数据结构,简单看来就是一段数据缓存区,可以存储一定量的数据,先存进来的数据会被先取出,First In Fist Out,就是FIFO。 FIFO主要用于缓冲速度不匹配的通信。 例如生产者(数…

【面试篇】Kafka

一、基础概念类 问题:请简述 Kafka 是什么,以及它的主要应用场景有哪些? 答案:Kafka 是一个分布式流处理平台,它以高吞吐量、可持久化、可水平扩展等特性而闻名。其主要应用场景包括: 日志收集&#xff1a…

解释回溯算法,如何应用回溯算法解决组合优化问题?

一、回溯算法核心原理 回溯算法本质是暴力穷举的优化版本,采用"试错剪枝"策略解决问题。其核心流程如下: ​路径构建:记录当前选择路径​选择列表:确定可用候选元素​终止条件:确定递归结束时机​剪枝优化…

Vue 学习随笔系列二十二 —— 表格高度自适应

表格高度自适应 文章目录 表格高度自适应1、方法一2、方法二 1、方法一 根据页面元素计算各自占比 <template><div class"main"><div class"query-form" ref"Query"><QueryFormref"QueryForm"query"query&q…

ubuntu22.04.5安装docker,解决安装出现的错误,解决Docker hello-world没打印出来

文章目录 前言一 安装失败解决1结合具体报错分析2 首先怀疑是VPN的问题3 直接百度报错信息4最终解决问题 二 验证Docker hello-world没打印出来总结 前言 先说一下前面的情况&#xff0c;使用的是公司的工作站&#xff0c;登录公司一个帐号使用的公司网络&#xff0c;使用网上…

idea插件(自用)

.ignore git排除文件插件&#xff1a;.ignore介绍 Grep console 自定义日志颜色&#xff1a;Grep console介绍 AceJump 光标快速定位&#xff1a;AceJump介绍 Key promoter 提示插件:Key promoter介绍 MetricsReloaded 分析代码复杂度的插件&#xff1a;MetricsReload…

让AI再次伟大-MCP-Client开发指南

&#x1f44f;作者简介&#xff1a;大家好&#xff0c;我是爱吃芝士的土豆倪&#xff0c;24届校招生Java选手&#xff0c;很高兴认识大家&#x1f4d5;系列专栏&#xff1a;Spring原理、JUC原理、Kafka原理、分布式技术原理、数据库技术、JVM原理、AI应用&#x1f525;如果感觉…