防止被算力“锁死”,人工智能进化急需革命性算法

来源:搜狐,以上文章观点仅代表文章作者,仅供参考,以抛砖引玉!

“深度学习所需的大规模样本数据对于算力产生巨大需求,但近日美国麻省理工学院等研究机构的报告显示,深度学习正在逼近算力极限,而提升算力所需的硬件、成本和对于环境的影响正变得越来越难以承受……”

美国麻省理工学院、安德伍德国际学院和巴西利亚大学的研究人员在最近的一项研究中发现,深度学习的进步强烈地依赖于计算的增长。其结论显示,训练模型的进步取决于算力的大幅提高,具体来说,计算能力提高10倍相当于3年的算法改进成果。大量数据和算力是促进人工智能发展的重要因素,但是研究人员认为,深度学习正在逼近算力极限。换言之,算力提高的背后,其实现目标所隐含的计算需求——硬件、环境和金钱等成本将变得无法承受。

研究人员表示,深度学习急需革命性的算法才能让AI更有效地学习,并越来越像人类。那么,为何深度学习算法十分依赖算力的增长,现在算力的极限在哪里,如何突破?除了算力,深度学习还能否依靠其他方式改进算法性能?革命性算法的标准是什么?

大规模样本数据催生计算需求

“深度学习本质上是基于统计的科学,所以大规模的样本数据对于深度学习的效果至关重要。更大规模和更复杂的神经网络模型已经被证明非常有效,并在产品中有广泛的使用,同时这也让深度学习对计算能力有着更大要求和消耗。”远望智库AI事业部部长、图灵机器人首席战略官谭茗洲表示。

人工智能设计之初,并没有考虑节能原则,只要有足够的算力和电力,算法就可以一直跑下去。

2019年6月,美国马萨诸塞州大学阿默斯特分校的一份报告显示,训练和搜索某种模型所需的电量涉及约626000磅二氧化碳排放量,这相当于美国普通汽车使用寿命内排放量的近5倍。此外,优越的灵活性使深度学习可以很好地建立不同的模型,超越专家的模型,但也带来昂贵的算力成本。深度学习需要的硬件负担和计算次数,背后消耗的是巨额资金。

一份业内报告显示,华盛顿大学的Grover假新闻检测模型两周内培训费用约为25000美元。另据报道,著名人工智能非营利组织OpenAI花费高达1200万美元训练其GPT-3语言模型,而GPT-2语言模型,每小时训练花费则达到256美元。

改进算法降低对计算平台要求

实际上,算力一直在提高。OpenAI一项研究表明,自2012年以来,每16个月将AI模型训练到ImageNet(一个用于视觉对象识别软件研究的大型可视化数据库)图像分类中,相同性能模型所需的计算量就减少了一半;谷歌的Transformer架构超越了其之前开发的seq2架构,计算量减少了61倍;DeepMind的AlphaZero与该系统的前身AlphaGoZero的改进版本相匹配,其计算量也减少了8倍。

有网友提出,现在的硬件算力提升有些误区,不一定非得在单位面积上堆更多的晶体管,我们需要更好的框架来支持底层计算条件及相应的硬件改进。理想情况下,用消费级的GPU就能运行很多深度模型。

“人们对深度学习的性能或结果的要求越来越高,随之对于算力的需求也越来越大。要让算力增长或突破,从算法层面,首先可以优化并行计算,有效利用多机多核的计算能力,灵活满足各种需求。同时,相对于传统的基于单机编写的程序,如果改写为多机多核的并行程序,能够充分利用其CPU和GPU(或AI芯片)的资源,将使运行效率大幅度提升。”西安电子科技大学电子工程学院教授吴家骥表示。

除了算力,深度学习本身还可通过哪些方式改进算法?吴家骥介绍,深度学习都是在异构硬件上运行,大数据进入时,需要分流处理,从算法上来看,可以调度优化,让异构架构(CPU、GPU、AI芯片)因地制宜地调度深度学习和大数据处理业务。

吴家骥指出,未来可能很长一段时间内,对深度算法的改进,不仅要从架构、硬件上考虑,还要考虑模型的压缩能力。例如,就具体问题而言,考虑如何把大象关进冰箱,但问题是冰箱关不了大象,但若把大象压缩成小猫小狗的大小,就可装入冰箱。这就需要模型压缩,在保证精度的前提下,压缩神经网络模型,降低对计算平台的要求,大大提高计算效率,满足更多的实际场景需求。

研究人员认为,在算法水平上进行深度学习改进已有先例。例如谷歌的张量处理单元,现场可编程门阵列和专用集成电路,并试图通过网络压缩和加速技术来降低计算复杂性。他们还引用了神经体系结构搜索和元学习,查找在一类问题上保持良好性能的体系结构,以此作为计算上有效改进算法的途径。

算力增长未必会让AI拥有类人智力

无疑,算法突破的目的是让机器更像人类大脑一样具有神经元的功能。但就功耗而言,大脑要像超级计算机那样运算,自身温度就会飙升上百摄氏度,所以若简单认为更多的计算能力就可让人工智能拥有人类智能的想法显然是存在争议的。

“人类的智能中基因与常识是机器所不具备的,其中基因是不需要计算的,常识是可以通过简单计算实现的。”谭茗洲指出。

“常识决定了基本能力、发现力和创造力,而具有常识能力,是更先进意义上的人工智能。革命性的算法,就是要让AI具备拥有学习常识的能力,这也是未来一个很有潜力的研究方向。”吴家骥说。

有人说,深度学习大多数是“炼金术”,大多数算法是对经验更朴实的归纳,对说的问题进行更精辟的演绎。谭茗洲说:“现在数据非常多,算力也在增强,人们依赖深度学习提升AI智力,但‘傻学硬练’形成更强的学习方法,很难达到或超越人类的算力及智力。”

那么,革命性算法的标准是什么,为什么优于深度学习的算法迟迟没出现?

谭茗洲认为,革命算法的标准首先是在不同场景具有高适应度,可以形成知识记忆和经验记忆的算法,并且低耗能低成本。未来革命性算法有可能基于三点提升,一是基于常识推理。由于我们面对的大量场景不是通过大量数据训练而来,人类大脑面对这些场景往往是通过常识推理运算而得出结论,而深度学习并没有建立这套体系。另外,常识和常识之间的关联性,加速了人类对结果的推理速度。二是基于负性小样本的学习。在深度学习模型中,往往很少去学习什么是错误的,而汲取负面行为及教训性质类型的小样本是有学习意义的。三是基于交流、沟通的学习,人与人交流在学习中分几个层次,看、听、模仿等,AI也应多从这几个方面入手,建立以交通、沟通为目的的学习,而不是单单通过大数据训练模仿人类智能。

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/487227.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Hinton口中破解宇宙终极秘密的GPT-3厉害在哪?这有篇涂鸦详解

大数据文摘出品编译:王绍宇、 AndyGPT-3最近又开始火起一阵,关于GPT-3的各种精彩文章现在也很多,其中不光有展示了它生成结果的,也有对结果一些思考的,还有可视化其工作原理的。由于GPT-3各种参数应用太强大&#xff0…

c# ref和out参数

向方法传递参的时候,对应的参数通常会用实参的拷贝来初始化。就是说随便在方法内部进行怎样的修改,都不会影响作为参数传递的变量的原始值。 通过上面的例子我们可以看出来,如果一个方法的参数是引用类型,那么使用哪个参数来进行任…

Gartner:如何利用数字孪生帮助企业创造价值?

❑ 导 读白皮书预测:到2021年,半数的大型工业企业将使用数字孪生,从而使这些企业的效率提高10%。到2024年,超过25%的全新数字孪生将作为新loT原生业务应用的绑定功能被采用。全文共计1723,预计阅读时间6分钟来源 | 树根…

集成电路将成一级学科,这些高校迎来重大机遇!

来源:软科8月4日,国务院发布关于印发《新时期促进集成电路产业和软件产业高质量发展的若干政策》的通知。《新时期促进集成电路产业和软件产业高质量发展的若干政策》在人才政策这一项中提到:进一步加强高校集成电路和软件专业建设&#xff0…

震撼三观:从细胞到宇宙

这是一次高速旅行,每次都以10倍的速度跳跃。从 10的0次方开始(也就是1 米), 然后每次按照10的乘方增加。从10米, 100 米, 1000米,以此类推, 直至巨视世界的无尽。来源:通往知识之路(ID:tongwang…

边缘AI芯片市场将在2025年首次反超云端AI芯片市场

边缘AI将利用许多其他新兴技术,为消费者和企业领域的各种新商机铺平道路。来源:雷锋网作者:吴优由于市场对低延迟、数据隐私以及低成本和超节能的可用性的日益关注,预计到2025年,边缘AI芯片组市场将首次超过云AI芯片组…

倪光南:看好鸿蒙系统,坚持生态体系创新才能不被“卡脖子”

图为倪光南院士接受专访来源:澎湃新闻8月7日,在中国信息化百人会2020年峰会上,华为消费者业务CEO余承东关于“麒麟芯片将绝版”的消息一石激起千层浪,在新的国际环境下,国内科技企业应当如何突破重围,自主创…

弦理论三先驱获2020年狄拉克奖

狄拉克奖是国际理论物理中心(International Centre for Theoretical Physics,ICTP)为纪念理论物理学家狄拉克而在1985年设置的奖项,被视为理论和数学物理领域的最高荣誉之一。近日,ICTP 在意大利 Trieste 宣布了2020年…

CCAI 2020 | 黄铁军:“仿真主义”下的人工智能发展之路

来源:中国人工智能学会在人工智能发展的60多年中,大致有四种方法来实现某些人工智能:符号主义,联结主义,行为主义和统计学,它们分别从不同的角度抓住了“智能”的一些特点,因此各自引领着一个时…

物联网激荡MEMS传感器浪潮

来源:第三代半导体联合创新孵化中心物联网悄然而至。如今,物联网已进入跨界融合、集成创新和规模化发展新阶段,将为经济社会发展注入新活力,培育新动能。物联网在交通、物流、环保、医疗、安防、电力等领域的应用逐渐得到规模化验…

《自然》《科学》相继发文批评质疑:俄罗斯注册新冠疫苗“让众人面临风险”...

来源:环球科学编译丨杨心舟8月11日,俄罗斯总统普京在与政府成员举行会议时透露,俄罗斯已经注册世界第一种新冠肺炎疫苗。普京表示,这款疫苗非常有效,能够形成稳定的免疫力并且已通过所有的检查,并且自己的女…

翻译连载 | 附录 A:Transducing(下)-《JavaScript轻量级函数式编程》 |《你不知道的JS》姊妹篇...

原文地址:Functional-Light-JS原文作者:Kyle Simpson-《You-Dont-Know-JS》作者关于译者:这是一个流淌着沪江血液的纯粹工程:认真,是 HTML 最坚实的梁柱;分享,是 CSS 里最闪耀的一瞥…

思未尽,行致远丨记 IBM 成立 109周年

来源:IBM中国主创团队(IBM Social & Studio DL team)策划:点亮 IBM 庆生蜡烛的甜心御姐 June撰稿:被百年“名场面”感动 cry 的原创一哥 Raphal设计:熬出黑眼圈也要操刀设计的鲁先森排版:话…

王恩哥院士:信息化发展进程中,科学、基础研究和技术、应用都是关键

图为王恩哥院士接受新华网采访来源:新华网由深圳市人民政府指导,中国信息化百人会主办,华为技术有限公司协办的中国信息化百人会2020年峰会于8月7日启幕。会上,中国信息化百人会顾问、中国科学院院士、北京大学原校长、中国科学院…

英特尔的六大新技术

来源:芯东西(公众号:aichip001) 芯东西8月14日消息,昨日晚间,英特尔在2020年架构日上推出10nm SuperFin晶体管技术,将实现其有史以来最强大的单节点内性能增强。据悉,10nm SuperFin技…

中国芯片设计云技术白皮书2.0发布

来源:摩尔精英作为行业内专业的IT/CAD技术服务团队,摩尔精英IT/CAD事业部曾于2019年11月21日的南京ICCAD大会上发表的《芯片设计云计算白皮书1.0》中,初步探索了基于公有云的EDA计算平台的实现方案。随着进一步的探索和方案优化,我…

希尔伯特著名的第六问题 – 原来麦克斯韦早就有解?

转自:知社学术圈作者:Natalie Wolchover 编译:子聿希尔伯特的第六大问题号召人们公理化物理学定律,也就是说从一套初始假设或者公理的基础出发严格构建它们。这样做将会揭示需要不同公设的定律之间的矛盾。从相同的公理出发推导…

layui富文本编译器添加图片

1、创建富文本编辑器 <form class"layui-form" method"post" id"myForm" enctype"multipart/form-data"><div class"layui-form-item layui-form-text"><label class"layui-form-label">内容&…

为什么数学是理解世界的最佳方式

来源&#xff1a;遇见数学在对着乔治梅森大学最近的一届新生致辞时&#xff0c;丽贝卡戈尔丁&#xff08;Rebecca Goldin&#xff09;传递了一个令人沮丧的数据&#xff1a;最近的一项研究显示&#xff0c;36%的大学生在大学四年时间里批判性思维并未显著提高。戈尔丁解释说&am…

5G 标准的走向,为何越来越不同寻常?

作者 | Michael Koziol译者 | 弯月&#xff0c;责编 | 屠敏出品 | CSDN&#xff08;ID&#xff1a;CSDNnews&#xff09;以下为译文&#xff1a;如果没有互联网工程任务组&#xff08;Internet Engineering Task Force&#xff09;制定种种互联网标准&#xff0c;那么此时此刻你…