AI 大模型开源之困:垄断、围墙与算力之殇

0bb6bafaea3fd7fbe0df3f34e8c57843.jpeg

从新兴技术转变为AI基础设施,大模型开源很重要,但也很难。

来源:AI科技评论

作者:李梅

编辑:陈彩娴

2020年6月,OpenAI发布GPT-3,其千亿参数的规模和惊人的语言处理能力曾给国内AI界带来极大的震动。但由于GPT-3未对国内开放,一批提供文本生成服务的商业公司在海外诞生时,我们只能望洋兴叹。

今年8月,伦敦的开源公司Stability AI发布文生图模型Stable Diffusion,并免费开源了模型的权重和代码,这迅速引发了AI作画应用在全球范围内的爆炸式增长。

可以说,今年下半年的AIGC热潮,开源起到了直接的催化作用。

而当大模型成为所有人都能参与的游戏时,得益的并不仅仅是AIGC。

1

大模型开源进行时

四年前,一个名为BERT的语言模型问世,以3亿的参数量从此改变了AI模型的游戏规则。

今天,AI模型的体量已经跃升至万亿的规模,但大模型的“垄断性”也随之日益凸显:

大公司、大算力、强算法、大模型,它们共同堆砌了一道普通开发者和中小企业难以闯进的围墙。

技术壁垒,以及训练和使用大模型所需的计算资源和基础设施,阻碍了我们从「炼」大模型走向「用」大模型的这条路。因此,开源迫在眉睫。通过开源让更多人参与大模型的这场游戏,将大模型从一种新兴的AI技术转变为稳健的基础设施,这正在成为许多大模型缔造者的共识。

也是在这样的共识下,前不久阿里巴巴达摩院在云栖大会上推出的中文模型开源社区“魔搭”(ModelScope)在AI界引起了很大的关注,目前国内的一些机构已经开始在该社区上贡献模型,或是建立自己的开源模型体系。

国外的大模型开源生态建设目前来看要领先于国内。Stability AI是私营公司出身但自带开源基因,有自己庞大的开发者社区,在开源的同时还有稳定的盈利模式。

今年7月发布的BLOOM有1760亿参数,是目前最大的开源语言模型,它背后的BigScience更是完美契合了开源精神,从头到脚透露着与科技巨头对弈的气势。BigScience由Huggingface带头发起的开放式协作组织,并非正式成立的实体,BLOOM的诞生,是来自70多个国家的1000多名研究人员在超级计算机上训练了117天的结果。

另外,科技巨头也并非没有参与大模型的开源。今年5月,Meta开源了1750亿参数的大模型OPT,除了允许OPT可被用于非商业用途外,还发布了其代码以及记录培训过程的100页日志,可谓开源得十分彻底。

研究团队在OPT的论文摘要里直截了当地指出,「考虑到计算成本,如果没有大量资金,这些模型是很难复制的。对于少数可通过API获得的模型,无法访问完整的模型权重,这致它们难以得到研究」。模型的全称「Open Pre-trained Transformers」也表明了Meta的开源态度。这可以说是暗讽了一把由并不「Open」的OpenAI发布的GPT-3(仅提供API付费服务)、以及今年4月谷歌推出的5400亿参数大模型PaLM(未开源)。

在垄断色彩一向浓厚的大厂中,Meta这番开源的举动是一股清流。当时斯坦福大学基础模型研究中心的负责人Percy Liang评价道:「这是朝着开辟研究新机遇迈出的令人兴奋的一步,一般而言,我们可以认为更强的开放能够使研究人员得以解决更深层次的问题。」

2

大模型的想象力不应止于AIGC

Percy Liang的这句话这也从学术层面回答了为何大模型一定要做开源的问题。

原创成果的诞生,需要开源来提供土壤。

一个研发团队训练出一个大模型,如果止步于在顶级会议上发表一篇论文,那么其他研究人员得到的就只是论文中各种「秀肌肉」的数字,而看不到模型训练技术的更多细节,只能花时间去复现,还不一定能复现成功。可复现性是科学研究结果可靠、可信的一个保证,有了开放的模型、代码和数据集,科研人员便能更及时地跟上最前沿的研究,站在巨人的肩膀上去触及一颗更高处的果实,这可以省下许多时间成本、加快技术创新的速度。

国内在大模型工作上的原创力不足,就主要体现为盲追模型尺寸、但在底层架构上无甚创新,这是从事大模型研究的业内专家的普遍共识。

清华大学计算机系的刘知远副教授向AI科技评论指出:国内在大模型的架构上有一些相对比较创新的工作,但基本上都还是以Transformer为基础,国内还比较缺乏像Transformer这种奠基式架构,以及BERT、GPT-3这样能够引起领域大变革的模型。

IDEA研究院(粤港澳大湾区数字经济研究院 )的首席科学家张家兴博士也告诉AI科技评论,从百亿、千亿到万亿,我们突破了各种系统上、工程上的挑战后,应该要有新的模型结构方面的思考,而不再是单纯地把模型做大。

另一方面,大模型在技术上要取得进步,还需有一套模型评估标准,标准的产生则要求公开和透明。最近的一些研究正在试图对众多大模型提出各种评估指标,但有一些优秀的模型由于不可访问而被排除在外,如谷歌在其Pathways架构下训练的大模型PaLM具备超强的语言理解能力,能轻松解释笑话的笑点,还有DeepMind的语言大模型Chinchilla,都没有开源。

但无论是从模型本身的出色能力还是从这些大厂的地位来看,它们都本不该缺席这样的公平竞技场。

一个令人遗憾的事实是,Percy Liang最近与其同事合作的一项研究表明,与非开源模型相比,目前的开源模型在许多核心场景上的表现都存在一定的差距。如OPT-175B、BLOOM-176B以及来自清华大学的GLM-130B等开源大模型,在各项任务上几乎全面输给了非开源的大模型,后者包括OpenAI的InstructGPT、Microsoft/NVIDIA的TNLG-530B等等(如下图)。

b11b3e606a55ec8bc351bc83c09402e4.jpeg

图注:Percy Liang et al. Holistic Evaluation of Language Models

要消解这种尴尬局面,需要各个领头羊们开源开放自家的优质大模型,这样大模型领域的整体进展才能更快地上一个台阶。

在大模型的产业落地方面,开源更是一条必经之路。

若以GPT-3的发布为起点,大模型经过两年多的你追我赶,在研发技术上已经较为成熟,但在全球范围内,大模型的落地都还处于早期阶段。国内各个大厂所研发的大模型固然有内部业务的落地场景,但整体上尚未有成熟的商业化模式。

在大模型落地正处蓄势待发之时,做好开源能够为将来大规模的落地生态打好基础。

大模型的本质决定了落地对开源的需求。阿里巴巴达摩院副院长周靖人告诉AI科技评论,「大模型是对人类知识体系的抽象与提炼,所以它能够应用的场景和产生的价值是巨大的。」而只有通过开源,大模型的应用潜力才能在众多有创造力的开发者那里得到最大限度的释放。

这是封闭了大模型内部技术细节的API模式所无法做到的。首先,这种模式的适用对象是低开发能力的模型使用者,对他们而言,大模型落地的成败相当于完全掌握在研发机构的手中。

以提供大模型API付费服务的最大赢家OpenAI为例,据OpenAI的统计,目前全世界已经有300多个使用了GPT-3技术的应用程序,但这个事实的前提是OpenAI的研发实力底气足、GPT-3也足够强大。如果模型本身性能不佳,那么这类开发者也就束手无策了。

更关键的是,大模型通过开放API所能提供的能力有限,难以承接复杂多样的应用需求。目前在市场上只是催生出一些具有创意的APP,但整体上还处于一种「玩具」的阶段,远没有达到大规模产业化的地步。

「产生的价值没有那么大,成本又收不回来,所以基于GPT-3 API的应用场景非常受限,很多工业界的人其实并不认可这种方式。」张家兴说道。的确,像国外的copy.ai、Jasper这些公司是选择做AI辅助写作业务,用户市场相对更大,所以才能产生比较大的商业价值,而更多应用还只是小打小闹。

相比之下,开源开放做的是「授人以渔」。

在开源模式下,企业凭借公开的源代码,在已有的基础框架上进行符合自己业务需求的训练、二次开发,这能够发挥大模型的通用性优势,释放远超于现在的生产力,最终带来大模型技术在产业中的真正落地。

作为目前大模型商业化落地最清晰可见的一条赛道,AIGC的这一波起飞已经印证了大模型开源模式的成功,然而在其他更多应用场景上,大模型的开源开放仍属少数,国内外皆是如此。西湖大学深度学习实验室的负责人蓝振忠曾向AI科技评论表示,目前大模型的成果虽然有很多,但开源极少,普通研究者的访问有限,这一点很令人惋惜。

贡献、参与、协作,以这些关键词为核心的开源,能够汇聚大量怀抱热情的开发者,共同打造一个可能具有变革意义的大模型项目,让大模型更快地从实验室走向产业。

3

不可承受之重:算力

大模型开源的重要性是共识,但通往开源的路上还有一个巨大的拦路虎:算力。

这也正是当前大模型落地所面临的最大挑战。即便Meta开源了OPT,但到目前为止它似乎还没有在应用市场上泛起大的涟漪,究其根本,算力成本仍然是小型开发者的不可承受之重,先不说对大模型做微调、二次开发,仅仅是做推理都很困难。

正因如此,在对拼参数的反思潮下,不少研发机构转向了做轻量模型的思路,将模型的参数控制在几亿至几十亿之间。澜舟科技推出的「孟子」模型、IDEA研究院开源的「封神榜」系列模型,都是国内走这条路线的代表。他们将超大模型的各种能力拆分到参数相对更小的模型上,已经在一些单项任务上证明了自身超越千亿模型的能力。

但毫无疑问,大模型的路必然不会就此停下,多位业内专家都向AI科技评论表示,大模型的参数依然有上升空间,肯定还要有人去继续探索更大规模的模型。所以我们不得不直面大模型开源后的窘境,那么,有哪些解决办法?

我们首先从算力本身的角度来考虑。未来大规模计算机群、算力中心的建设肯定是一个趋势,毕竟端上的计算资源终归难以满足需求。但如今摩尔定律已经趋缓,业界也不乏摩尔定律将要走向终结的论调,如果单纯地寄希望于算力的提升,是远水解不了近渴。

「现在一张卡可以跑(就推理而言)一个十亿模型,按目前算力的增长速度,等到一张卡可以跑一个千亿模型也就是算力要得到百倍提升,可能需要十年。」张家兴解释。

大模型的落地等不了这么久。

另一个方向是在训练技术上做文章,加快大模型推理速度、降低算力成本、减少能耗,以此来提高大模型的易用性。

比如Meta的OPT(对标GPT-3)只需要16块英伟达v100 GPU就可以训练和部署完整模型的代码库,这个数字是GPT-3的七分之一。最近,清华大学与智谱AI联合开源的双语大模型GLM-130B,通过快速推理方法,已经将模型压缩到可以在一台A100(40G*8)或V100(32G*8)服务器上进行单机推理。

在这个方向上努力当然是很有意义的,大厂们不愿意开源大模型一个不言自明的原因,就是高昂的训练成本。此前有专家估计,GPT-3的训练使用了上万块英伟达v100 GPU,总成本高达2760万美元,个人如果要训练出一个PaLM也要花费900至1700万美元。大模型的训练成本若能降下来,自然也就能提高他们的开源意愿。

但归根结底,这只能从工程上对算力资源的约束起到缓解作用,而并非终极方案。尽管目前许多千亿级、万亿级的大模型已经开始宣传自己的「低能耗」优势,但算力的围墙仍然太高。

最终,我们还是要回到大模型自身寻找突破点,一个十分被看好的方向便是稀疏动态大模型。

稀疏大模型的特点是容量非常大,但只有用于给定任务、样本或标记的某些部分被激活。也就是说,这种稀疏动态结构能够让大模型在参数量上再跃升几个层级,同时又不必付出巨大的计算代价,一举两得。这与GPT-3这样的稠密大模型相比有着极大的优势,后者需要激活整个神经网络才能完成即使是最简单的任务,资源浪费巨大。

谷歌是稀疏动态结构的先行者,他们于2017年首次提出了MoE(Sparsely-Gated Mixture-of-Experts Layer,稀疏门控的专家混合层),去年推出的1.6万亿参数大模型Switch Transformers就融合了MoE风格的架构,训练效率与他们之前的稠密模型T5-Base Transformer相比提升了7倍。

而今年的PaLM所基于的Pathways统一架构,更是稀疏动态结构的典范:模型能够动态地学习网络中的特定部分擅长何种任务,我们根据需要调用经过网络的小路径即可,而无需激活整个神经网络才能完成一项任务。

701521323a9d1721de2279789fe605f7.gif

图注:Pathways架构

这本质上与人脑的运作方式类似,人脑中有百亿个神经元,但在执行特定任务中只激活特定功能的神经元,否则巨大的能耗是人难以承受的。

大、通用,且高效,这种大模型路线无疑具有很强的吸引力。

「以后有了稀疏动态的加持,计算代价就不会那么大,但是模型参数一定会越来越大,稀疏动态结构或许会为大模型打开一个新天地,再往十万亿、百万亿走也没问题。」张家兴相信,稀疏动态结构将是解决大模型尺寸与算力代价之间矛盾的最终途径。但他也补充说,在当下这种模型结构还未普及的情况下,再盲目将模型继续做大确实意义不大。

目前国内在这个方向上的尝试还比较少,且不如谷歌做得更彻底。大模型结构上的探索创新与开源相互促进,我们需要更多开源来激发大模型技术的变革。

阻碍大模型开源的,除了大模型的算力成本导致的低可用性,还有安全问题。

对于大模型尤其是生成大模型开源后带来的滥用风险,国外担忧的声音似乎更多,争议也不少,这成了许多机构选择不开源大模型的凭据,但或许也是他们拒绝慷慨的一个借口。

OpenAI已经因此招致了许多批评。他们在2019年发布GPT-2时就声称,模型的文本生成能力过于强大,可能会带来伦理方面的危害,因而不适合开源。一年后公开GPT-3时也仅仅提供了API试用,目前GPT-3的开源版本实际上是由开源社区自行复现的。

事实上,对大模型的访问限制反而会不利于大模型提高稳健性、减少偏见和毒性。Meta AI的负责人Joelle Pineau在谈到开源OPT的决定时,曾诚恳地表示,单靠自家团队解决不了全部问题,比如文本生成过程中可能产生的伦理偏见和恶意词句。他们认为,如果做足功课,就可以在负责任的情况下让大模型变得可以公开访问。

在防范滥用风险的同时保持开放获取和足够的透明度,这并非易事。作为打开了「潘多拉魔盒」的人,Stability AI享受了主动开源带来的好名声,但最近也遭遇了开源带来的反噬,在版权归属等方面引起了争议。

开源背后的「自由与安全」这一古老的辩证命题由来已久,或许并没有一个绝对正确的答案,但是在大模型开始走向落地的当下,一个清楚的事实是:大模型开源,我们做得还远远不够。

两年多过去,我们已经拥有了自己的万亿级别大模型,在接下来大模型从「读万卷书」到「行万里路」的转变过程中,开源是一个必然的选择。

最近,GPT-4正呼之欲出,所有人都对它能力上的飞跃抱着极大的期待,但我们不知道,未来它能给多少人释放多大的生产力?

参考资料:

1.https://arxiv.org/pdf/2211.09110.pdf

2.北京智源人工智能研究院《中国超大规模智能模型产业发展报告》

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

f200c6d8fe7533eb9b9db1108765e59c.jpeg

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/481343.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

神经符号 AI,或为下一代 AIoT 的新解法

来源:AI科技评论作者:黄楠编辑:陈彩娴11 月 22 日,2023 年度 IEEE Fellow 名单公布,入选者约1/3为华人学者。IEEE Fellow 被称为全球电子电气工程领域的最高荣誉,每年当选人数不足整个 IEEE 协会的千分之一…

ChatGPT会取代搜索引擎吗

来源:AI科技大本营作者:张俊林本文经作者授权发布,原文地址:https://zhuanlan.zhihu.com/p/589533490作为智能对话系统,ChatGPT最近两天爆火,都火出技术圈了,网上到处都在转ChatGPT相关的内容和…

菲尔兹奖得主再次突破数论难题:多少整数能写成2个有理数立方和?结论直接影响“千禧难题”之七...

Pine 萧箫 发自 凹非寺量子位 | 公众号 QbitAI困扰数学界几个世纪的难题,终于有重大突破了!这个难题如果被解决,会直接影响到一个著名未解之谜的求解——贝赫和斯维讷通-戴尔猜想。贝赫和斯维讷通-戴尔猜想是数学界顶尖的7大千禧难题之一&…

从城市到国家:多学科视角的城市复杂系统

摘要与城市一样,国家在很大程度上是人造的系统。尽管它们在地点和规模上有所不同,但城市和国家都是可识别的单位,具有独特的特征,是独立的(不能被分解成部分而不失去其特征或个性的系统)。一个国家的历史与…

杀死1500只动物?马斯克的脑机接口公司被查!已宣布半年内进行人体试验

来源:每日经济新闻记者:郑雨航编辑:段炼 兰素英 杜波 杜恒峰校对:王月龙当地时间12月5日,路透社报道称,因涉嫌侵犯动物福利的违规行为,马斯克的脑机接口公司Neuralink正面临美国联邦部门的调查。…

人民日报:在集成电路基础研究中奋力攀登

来源:芯榜Pro转载自人民日报党的十八大以来,一大批70后、80后、90后青年科研人员脱颖而出,日益成为科技创新的生力军、主力军。党的二十大报告提出:“必须坚持科技是第一生产力、人才是第一资源、创新是第一动力,深入实…

骆清铭院士:给“大脑”绘制一个清晰可见的“地图”

来源:学习时报作者简介:骆清铭,中国科学院院士,海南大学校长,华中科技大学苏州脑空间信息研究院首席科学家。骆清铭团队研发的显微光学切片断层成像系统(MOST)系列技术,为实现单神经…

AI大神LeCun深度学习公开课来啦!4万字干货笔记(附干货笔记下载)

来源:Datawhatle喜欢深度学习?最好的方法就是在线课程。这里推荐图灵奖得主、纽约大学教授Yann LeCun主讲的在线课程。该课程最重要的优点是,它集成了LeCun对深度学习的思考。通过这门课,学习者可以了解深度学习的现状&#xff0c…

这种由数学描述的现象,在自然中终于找到了

#创作团队:原文作者:Raphael Sarfati(科罗拉多州大学波尔多分校博士后副研究员)编译:Gaviota排版:雯雯#参考来源:https://theconversation.com/synchrony-with-chaos-blinking-lights-of-a-fire…

互联网的未来:为什么我们需要 HTTP/3?

来源:SDNLAB*本文系SDNLAB编译自Ably博客自1997年HTTP/1.1标准化以来,一直是首选的应用层协议。多年来,为了跟上互联网的发展和网络上交换内容的多样性,HTTP 不得不进行升级。本文展示了 HTTP 协议的演变,深入探讨了 H…

评估深度学习模型以预测表观基因组概况

编辑 | 萝卜皮深度学习已经能够成功预测 DNA 序列的表观基因组图谱。大多数方法将此任务定义为二元分类,依赖峰值调用者来定义功能活动。最近,出现了定量模型来直接预测实验覆盖值作为回归。随着具有不同架构和训练配置的新模型不断出现,由于…

DeepMind携AlphaCode登Science封面,写代码能力不输程序员

来源:机器之心编辑:小舟、陈萍AI 卷到程序员自己身上了。今年年初,DeepMind 发布了基于 Transformer 的新模型 AlphaCode,该模型实现了大规模代码生成。现在,AlphaCode 又在《Science》上发表了新论文,研究…

微软 CTO 断言,明年是AI社区最激动人心的一年,网友:GPT-4 要来了?

来源:AI前线 整理:褚杏娟 核子可乐GPT 不出,AI 万古如长夜。“对于人工智能,2022 年是有史以来最激动人心的一年。”微软首席技术官 Scott Stein 在近日的分享中说道,但他还自信地表示,“2023 年将是 AI 社…

以“开放同行评议”推动学术发展

来源:《中国社会科学报》图片来源:CFP同行评议是指同一领域的专家学者评议研究人员稿件,确定学术论文是否适合发表、提出意见的过程。同行评议一直是学术期刊出版的重要基石。然而,学术界关于同行评议中的偏见和不利影响的争论&am…

2022年,人工智能领域发展的七大趋势有哪些?

来源:福布斯官网美国《福布斯》网站在近日的报道中指出,尽管目前很难想象机器自主决策所产生的影响,但可以肯定的是,当时光的车轮到达2022年时,人工智能领域新的突破和发展将继续拓宽我们的想象边界,其将在…

DeepMind VS Meta:实现纳什均衡理性最优解,还是多人非零和博弈算法更强大?

大数据文摘转载自AI科技大本营编译 & 整理:杨阳记得豆瓣高分电影《美丽心灵》中的约翰纳什吗?作为获得诺贝尔经济学奖的数学家,纳什在博弈论、微分几何学,以及偏微分方程等各个领域都作出卓越贡献。为表彰他在非合作博弈理论中…

【萌味】小夕说,不了解动态空间增长的程序喵都是假喵(上)

小提示:小夕会将小屋的最新动态更新到小屋的布告栏哦,口令是【nb】(口令在订阅号主界面直接回复即可使用)。 小夕学了数据结构后,知道了链表、树、哈希表等数据结构与静态数组的固定容量不同,它们…

马斯克脑机接口公司被查,曾宣布6个月内进行人体试验

来源:医谷文:医谷近日,据路透社报道称,因涉嫌违反动物保护相关内容,马斯克的脑机接口公司Neuralink正面临美国联邦部门的调查。据称,其现任和前员工指出,由于马斯克要求加快研发速度的高压要求&…

【萌味】小夕说,不了解动态空间增长的程序喵都是假喵(中)

亲爱的小屋客人,昨天小夕将小屋的讨论室重新装修啦!希望您会喜欢哦~除了口令[d],现在也可以通过主页下方的“喵了个咪”进入讨论室啦。ps:昨天小夕装修讨论室的时候发生了N次差点吐血的事件,明天小夕与大家含泪分享T_T…

马斯克点赞!DeepMind神AI编剧,一句话生成几万字剧本

来源:机器学习研究组订阅你有灵光乍现的时刻吗?就是那种:这点子太好了,要是拍成电影一定能大火?之前这种想法可能只能停留在你的脑海中,而现在,一个「AI编剧大师」的出现,或许能让你…