网友:看完Jeff Dean新论文,我再也不相信大厂的鬼话了

da01ceeb890e1944d0a413e5a1160e76.png

来源:数学中国

文字:乔叶

配图 :乔叶

排版:余弟宗璇

「我相信他们得到的数字是准确的,他们确实做了工作并得到了结果…… 但这样真的好吗?」

一名机器学习研究者的灵魂发问,今天成为了整个社区最热门的话题。

7aebe1032a390c6d66bde40c42ee220c.png

事情要从这周四说起,谷歌研究员 Andrea Gesmundo 和谷歌 AI 负责人、大牛 Jeff Dean 的论文《An Evolutionary Approach to Dynamic Introduction of Tasks in Large-scale Multitask Learning Systems》被提交到了预印版论文平台 arXiv 上。

Jeff Dean 等人提出了一种进化算法,可以生成大规模的多任务模型,同时也支持新任务的动态和连续添加,生成的多任务模型是稀疏激活的,并集成了基于任务的路由,该路由保证了有限的计算成本,并且随着模型的扩展,每个任务添加的参数更少。

作者表示,其提出的新方法依赖于知识划分技术,实现了对灾难性遗忘和其他常见缺陷(如梯度干扰和负迁移)的免疫。实验表明,新方法可以联合解决并在 69 个图像分类任务上取得有竞争力的结果,例如对仅在公共数据上训练的模型,在 CIFAR-10 上实现了新的业界最高识别准确度 99.43%。

f94f3d26016ca61d472f8808f386def9.png

论文链接:https://arxiv.org/abs/2205.12755

这看起来是 Jeff Dean 等人朝着他们近期设立的雄伟目标 pathway 通用 AI 架构迈出的重要一步。去年,他所带领的团队提出了「下一代通用 AI 架构」Pathways,旨在用一个架构同时处理多项任务,并且使其拥有快速学习新任务、更好地理解世界的能力。

在 5 月 12 日的谷歌 IO 大会上,皮查伊还表示研究人员用 Pathways 系统训练了一个 5400 亿参数的大型语言模型 PaLM,这是一个只有解码器的密集 Transformer 模型。可以完成的任务包括自动生成代码、解决数学问题、修复 bug,解释笑话的梗等等。PaLM 可以区分因果关系,理解上下文中的概念组合。

ec9e8070f831ec96952c2aa8819cbfc5.png

PaLM 模型在数学问题上的准确率提升到了 58%,接近 60% 的 9 到 12 岁儿童解决问题的水平,又可以在没经过对应语料库训练的情况下实现准确的翻译。

而这个星期的新论文中,作者提出的 µ2Net 模型可以预训练或随机初始化。一次搜索出的单个任务上的最佳模型称为活动任务。在任务的活跃阶段,在活跃任务上训练的模型群体会不断进化——随机突变然后测试评分,保留高分的,淘汰低分的。一个活跃阶段由多代组成,其中并行采样和训练多批子模型。在任务活动阶段结束时,仅保留其最佳评分模型作为多任务系统的一部分。一个任务可以被多次激活。

f71fc9c9493084ef7aed7a7ad1c20dc9.png

作者表示 µ2Net 可以在大型任务集上实现最先进的质量,并能够将新任务动态地引入正在运行的系统中。学习的任务越多,系统中嵌入的知识就越多。同时,随着系统的增长,参数激活的稀疏性使每个任务的计算量和内存使用量保持不变。通过实验,每个任务的平均增加参数量减少了 38%,由此产生的多任务系统仅激活了每个任务总参数的 2.3%。

8ecffa0d2aea5fa7ab99f149f8061b6a.png

对于程序员大神 Jeff Dean,人们一直心存敬畏。该研究刚刚提交时,人们的看法还是赞赏和期待,但在更多的人仔细阅读过论文之后,社区的风评突然发生了转变。

23e947c1e67c2155d0d365069df82028.png

昨天在 reddit 的机器学习社区上,一名 AI 研究者 MrAcurite 表达了愤怒的情绪:

我相信这些数字是准确的,并且他们确实做了工作并得到了结果。在这篇论文中,作者使用了非常复杂的进化和多任务学习算法,它有 18 页的内容,非常有趣,解决了一堆问题。但有两个值得注意的地方。

首先,他们主张的突破性指标数字是 CIFAR-10 上的 99.43,而此前的 SOTA 为 99.40,所以在宏伟的计划中向前推进了一步,「哇哦」。

其次,论文末尾有一张图表,详细说明了仅用于产生最终结果的训练方案的 TPU 核心小时数。总计为 17,810 小时。假设你不是个在谷歌工作的人,你必须使用 3.22 美元 / 小时的按需付款。这意味着这些训练好的模型成本为 57,348 美元。

严格来说,在一个足够通用的遗传算法上投入足够的计算肯定最终会产生好的性能,所以虽然你绝对可以阅读这篇论文并收集有关「如何使用遗传算法,通过利用已有模型子集部分,在每个新任务上学习权重的方式来完成多任务学习」的有趣想法。

或者用人话来说,本文只是「Jeff Dean 花了足够的钱养活一个四口之家五年的钱,以获得 0.03% 在 CIFAR-10 上的改进。」

在不断推陈出新的大厂 AI 论文中,OpenAI 无疑是最严重的违规者,但似乎每个人都在这样做。你在现有数据和现有基准的现有问题上投入了大量的计算和少量的新想法,然后如果你的数字远远高于已有的 SOTA 数字,你就可以在自己简历上贴上一个小标签。

这让人如何相信你的思路不是有害的?我甚至无法验证它们,无法将它们应用到自己的项目中。

这真的是一个研究社区该有的样子吗?大量的算力掌握在少数科技巨头的手中。我认为应该有一个新的论文期刊,要求其中的论文在单个消费者 GPU 上 8 小时内可以复现其实验结果。

MrAcurite 发贴后,有多位研究者展开了讨论,人们从各个角度附和了她的观点。

SupportVectorMachine (认证的研究人员)表示:

我几乎对深度学习失去了兴趣,因为作为小型实验室的从业者,基本上在计算预算方面不可能比得过科技巨头。即使你有一个很好的理论想法,主流环境可能也存在偏见,让它难以看到曙光。这酿成了一个不公平的竞争环境。

当然,这些大规模的研究项目并非没有价值。像 GPT、DALL-E 等都很棒。但如果我不能在我自己的机器上复现这些大模型,它们对我来说的意义就不大。

gambs (认证的 PhD)回复道:

讲一件真实的事,两年前我写了一篇关于流模型的论文,一位审稿人给出的评语是:「生成的图像看起来不如 GAN 好」。

当时我使用的是以前发布的预训练模型,并且没有以任何方式对其进行修改,这篇论文旨在找到隐空间中采样的部分,而不是提出改进模型生成图像质量的模型。

fmai 回复道:

作为 AI 会议的审稿人,我认为可以通过规范化帮助改变这种现状。例如,我尝试专门查看论文是否符合科学工作的要求,是否有完整的研究问题,是否有证据充分支持假设等。用所有自变量都不同的新系统击败 SOTA 模型不会创造任何新知识,也不是科学研究。

JanneJM 则表示:

用更大的网络击败现有 SOTA 模型并不是推动该领域发展的唯一途径。相反,这可能是最无趣的研究。

专注于使用小型网络(用于物联网设备、实时训练等)做更多事情,不需要大量计算能力,这样的研究不是更有趣吗,实际用途也更大。理论结果和概念突破,无论是数学证明还是统计证明、新型方法等等,这些其实几乎不需要实际计算。

c5ce0c478442218c25041c258617796a.png

预训练大模型的兴起,正让越来越多的研究者大呼「先进模型跑不起」、「难以和科技大厂的 AI Lab 竞争」,技术的进步似乎把很多人挡在了前沿研究的门槛之外。现在看来,情况有着愈演愈烈的趋势,最近一段时间,在社交网络上刷屏的新研究是 OpenAI 的 DALL-E2 和谷歌的 Imagen,这些模型都需要耗费巨大的算力完成训练。

不知在人们的呼吁过后,未来的研究风向是否会有改变。

参考内容:

https://www.reddit.com/r/MachineLearning/comments/uyratt/d_i_dont_really_trust_papers_out_of_top_labs/

https://www.reddit.com/r/MachineLearning/comments/uyfmlj/r_an_evolutionary_approach_to_dynamic/

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

f3323b99857e599b82853f7e3975877e.png

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/482043.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

CV未来在这68张图上?Google Brain深扒ImageNet:顶级模型全都预测失败

来源:新智元编辑:LRS【新智元导读】ImageNet的标签问题一直为人诟病,最近Google Brain全面分析了基准内遗留的历史问题,并找出了所有顶级模型全都预测失败的68张图片,或许未来CV想取得突破,先得攻破这68关&…

谷歌夺回AI画语权,机器的想象力达到全新高度,网友:DALL·E 2诞生一个月就过时了?...

来源:量子位在让AI搞创作这件事上,谷歌和OpenAI正面刚起来了。这不,震惊全网的DALLE 2才新鲜出炉一个月,谷歌就派出名为Imagen的选手来打擂台。直接上图对比,左边是谷歌Imagen选手眼中的“猫猫绊倒人类雕像”&#xff…

Linux安装MySQL的完整步骤并有关MySQL8.0版本的问题方法

目录 QUESTION:Linux安装MySQL的完整步骤? ANSWER: 一:使用wget 直接下载 二:安转软件源,将platform-and-version-specific-package-name 替换为你下载的rpm名 三:安装mysql服务端 四:首先启动mysql 五&#x…

研究遭质疑,Jeff Dean回应:我们本就不是为得到新SOTA,成本计算也搞错了

来源:机器之心编辑:杜伟、陈萍对于 Jeff Dean 的回复,你认同吗?昨日,整个社区最热门的话题无外乎是 reddit 上一名机器学习研究者对谷歌 AI 负责人 Jeff Dean 参与论文的质疑。这篇论文是《An Evolutionary Approach t…

全脑地图:单个记忆被拆分存储在多个相连的大脑区域

来源:神经生物学根据一项创新的脑域映射研究,单一的记忆被存储在许多连接的大脑区域。创新的脑成像研究表明,“记忆印记”,编码记忆的神经元集合,广泛分布,包括在以前没有意识到的区域。麻省理工学院皮考尔…

李德毅 | 新一代人工智能如何从传统人工智能中脱颖而出

来源:图灵人工智能 作者:李德毅 中国工程院院士、CAAI名誉理事长、主线科技首席科学家2021年4月10日,“吴文俊人工智能科学技术奖”十周年颁奖盛典在北京举办。颁奖典礼上,中国工程院院士、中国人工智能学会名誉理事长李德毅荣获…

【强基固本】现在的人工智能是否走上了数学的极端?

来源:知乎—谢凌曦地址:https://www.zhihu.com/question/519393525/answer/2430233113“强基固本,行稳致远”,科学研究离不开理论基础,人工智能学科更是需要数学、物理、神经科学等基础学科提供有力支撑,为…

智源发布线虫生命模型,超级人脑有望在未来15-30年实现

出品:CSDN(ID:CSDNnews)作者:田玮靖 5月31日,作为国际性、权威性、专业性和前瞻性的“内行AI盛会”——智源大会开幕,会上,智源研究院发布了其最新研究成果线虫生命模型——天宝…

Aquarium华人CEO分享:机器学习在自动驾驶中落地,核心不是模型,是管道

来源:AI科技评论作者:Peter Gao编译:刘冰一编辑:陈彩娴作者 Peter Gao 是 Aquarium 公司的联合创始人和首席执行官(CEO),Aquarium 公司建立了寻找和修复深度学习数据集问题的工具。在 Aquarium …

数据科学中的 10 个重要概念和图表的含义

大数据文摘转载自数据派THU来源:DeepHub IMBA“当算法给你一条曲线时,一定要知道这个曲线的含义!”1、偏差-方差权衡这是一个总是在机器学习最重要理论中名列前茅的概念。机器学习中的几乎所有算法(包括深度学习)都努力…

Java总结:Spring5框架(1)

Spring5框架(1) 一:什么是Spring? Spring框架是由于软件开发的复杂性而创建的。Spring使用的是基本的JavaBean来完成以前只可能由EJB完成的事情。然而,Spring的用途不仅仅限于服务器端的开发。从简单性、可测试性和松耦合性角度而…

专访|79岁图灵奖获得者迈克尔·斯通布雷克谈“数字经济”与“元宇宙”

迈克尔斯通布雷克(Michael Stonebraker)被誉为“世界上最重要的数据库专家之一”,是数据库领域的第4位图灵奖得主来源:数据观撰稿:黄玉叶编辑:蒲蒲如果说硅是未来的新型石油,那么数据就好比新型…

Windows下如何搭建Gradle环境?

QUESTION:Windows下如何搭建Gradle环境? 目录 QUESTION:Windows下如何搭建Gradle环境? ANSWER: 1.开发环境 2.安装步骤 (1)下载最新的Gradle压缩包 (2)解压下载的压缩包到指定位置,比如: (3)配置环境变量 3.测试配置是否成功 ANSWER: 1.开发环境…

2029年会实现通用人工智能吗?Gary Marcus「叫板」马斯克:赌十万美元如何?

来源:AI科技评论作者:王玥编辑:陈彩娴5月30日,世界级红人埃隆马斯克(Elon Musk)发了一条推文,称:2029年是关键的一年,如果那时候我们还没有实现通用人工智能(…

Java总结:SpringBoot的使用cmd命令进行Gradle构建

QUESTION:SpringBoot的使用cmd命令进行Gradle构建 ANWSER: 目录 QUESTION:SpringBoot的使用cmd命令进行Gradle构建 ANWSER: 一:下载SpringBoot工程 二:CMD命令构建gradle 一:下载SpringBoot工程 打开:https://spring.io/pr…

Python之父Guido Van Rossum:炒作之火或将“摧毁” Web 3

来源:Yin Long Ma译者:核子可乐策划:刘燕去中心化互联网压根没戏,Web 3 开发者都是小丑:关于 Web 3,我们到底该相信什么?去中心化互联网是怎么回事?互联网源自 Web 1.0 时代&#xf…

Python:使用matplotlib进行绘图时中文变成乱码的解决

QUESTION:Python:使用matplotlib进行绘图时中文变成乱码的解决? ANSWER: 在绘图前加上下面的代码: plt.rcParams[font.sans-serif][SimHei] #用来正常显示中文标签 plt.rcParams[axes.unicode_minus]False #用来正常显示负号例子: from matplotlib import pyplot as plt pl…

两篇Nature最新研究成果:令细胞衰老的基因突变作用机制的新理论

来源:生物通研究人员发现,基因突变在人的一生中是缓慢积累的,从而导致70岁后血液形成发生巨大变化,这为衰老提供了一种新的理论。一项新的研究揭示了贯穿一生、在血液干细胞中缓慢积累的基因变化可能是导致70岁后血液生产发生巨大…

美国陆军:2045年20项新兴科技趋势报告

来源:硅谷智库 这份报告是美国陆军公布的一份长达35页的《2016-2045年新兴科技趋势报告》。它是美国在过去几年由政府机构、咨询机构、智囊团、科研机构等发表的32份科技趋势相关研究调查报告的基础上提炼形成的。通过对近700项科技趋势的综合比对分析&#xff…

利用宇宙的能力来处理数据!「物理网络」远胜深度神经网络

来源:AI科技评论作者:Charlie Wood编译:王玥编辑:岑峰轮到物理学家来揭示神经网络的本质了:他们在尝试让宇宙为我们处理数据。在一个隔音的板条箱里有着一个世界上最糟糕的神经网络。在看到数字6的图像后,这…