FATE-LLM简介
FATE-LLM是一个支持联邦大语言模型训练的框架,其架构及核心技术原理如下:
架构概述
FATE-LLM主要由模型层、参数高效微调层、隐私保护与安全机制、通信与聚合模块等组成,致力于在保护数据隐私的前提下,利用联邦学习技术整合各方数据与算力资源,提升大语言模型的训练效果和性能,同时降低训练成本.
核心技术原理
- 联邦学习融合大模型:FATE-LLM允许多个参与方在不共享原始数据的情况下,利用各自的私有数据共同训练大语言模型。例如,不同的金融机构可以基于FATE-LLM平台,使用各自的客户数据对预训练的大语言模型进行微调,以提升在金融领域的应用效果,同时保证客户数据的隐私安全.
- 参数高效微调方法:集成了多种参数高效微调方法,如Bottleneck Adapters(包括Houlsby、Pfeiffer和Parallel方案)、Invertible Adapters、LoRA、IA3和Compacter等。以LoRA为例,