谷歌旗下的人工智能研究实验室DeepMind发布了一项关于人工智能模型训练的新研究成果,声称其新提出的“联合示例选择”(Joint Example Selection,简称JEST)技术能够极大地提高训练速度和能源效率,相比其他方法,性能提高了13倍,而能源效率则提升了10倍。这一进展对于当前担忧人工智能对电力需求激增可能带来的环境压力而言,无疑是一则潜在的好消息。
JEST技术颠覆了传统的AI训练方式,传统方法通常集中于利用单个数据点进行学习,而JEST则基于数据批次进行训练。具体来说,该方法首先构建一个小型AI模型,用于评估来自高质量数据源的数据质量并进行排序。随后,这个小模型会将高质量数据集的评分与一个较大、质量较低的数据集进行对比,挑选出最适合训练的数据批次。接着,大型模型依据小模型的筛选结果进行训练,从而实现更高效的模型学习。
DeepMind的研究人员强调,JEST成功的关键在于其引导数据选择过程朝向较小且精心策划的数据集分布的能力。实验结果显示,该方法相较于最前沿的模型,如SigLIP,在迭代次数和计算量上分别减少了最多13倍和10倍,显著提升了效率和速度。
然而,JEST方法的成功高度依赖于训练数据的质量。这种方法要求有一个由专家精心策划的高质量初始数据集作为基础,否则“垃圾进,垃圾出”的原则将严重影响其效果。这意味着对于业余爱好者或非专业AI开发者来说,要实现JEST的高效训练将面临更多挑战,因为它需要高级别的研究技能来准备数据集。
在当前背景下,JEST技术的出现正当其时。随着科技行业和各国政府开始讨论人工智能日益增长的巨大能源消耗问题,这一研究显得尤为重要。据统计,2023年AI工作负载消耗了大约4.3GW的电力,几乎相当于塞浦路斯一年的用电量。而未来发展趋势显示,AI能源需求将持续上升,例如单次ChatGPT请求的能耗是谷歌搜索的10倍,Arm公司CEO预测到2030年,AI将占据美国电网四分之一的电力。
至于JEST技术是否会被AI领域的大型企业采纳,以及如何采纳,目前尚待观察。考虑到训练大型模型如GPT-4的成本已高达1亿美元,未来规模更大的模型训练成本或将突破十亿美元大关,因此企业迫切需要寻找节省成本的方法。乐观人士希望JEST技术能够帮助维持现有的训练效率,同时大幅降低能耗,减轻AI成本并有利于环境保护。然而,现实可能是资本驱动下,企业利用JEST技术维持高能耗下的超高速训练产出,成本节约与产出规模之间的平衡将是一个复杂博弈。