李联宁|量子计算机:技术路线、风险及战略投资

来源:《学术前沿》杂志2021年4月上(微信有删节)

作者:西安交通大学城市学院教授 李联宁

原文责编:桂琰

新媒体责编:李思琪

视觉:王洋

图片来源:网络

由于现有半导体微电子技术物理极限的原因,传统计算机的发展渐渐接近其极限,而具有强大并行处理能力的量子计算技术的发展随之成为现实需求。然而,通常外部环境会对量子计算的基本单位量子比特产生干扰,产生量子衰减而导致计算错误。面临上述技术难题,全球出现了基于超低温超导材料、离子阱技术、微电子制造技术和通过量子纠缠来获取信息的四种技术实现路径之争。

如何建造一台大型容错的通用量子计算机并将其应用于完成实际任务,同时带来收益,具有很大的技术挑战性与风险。西安交通大学城市学院李联宁教授认为,从历史上看,一项技术的进步取决于对该技术投入的人力和资金的多少。当前,各经济发达国家对量子研究的投入持续增长,已开始进行国家层面的指数级投资。

量子计算机技术前沿

技术一,在极冷的环境下控制量子。只有在零场强和绝对零度的环境中,才有理想状态下的量子计算。但是由于这种温度环境需要消耗大量的资金和能源,这在一定程度上就阻碍了量子计算机小型通用化的技术进程。

技术二,采用“拓扑量子比特”进行计算。用拓扑量子比特进行计算,对于外界的干扰有极强的容错能力。这样一来,基于拓扑量子比特的计算机就可以在规模上很大,在能力上很强。这个技术一旦取得突破,长期困扰我们的诸多计算难题将迎刃而解。

技术三,使用量子退火原理寻找最优解。量子退火算法就是让大自然自己去选择最优的答案。目前商用量子计算机(其实是量子退火机)D-WaveTwo会对每次计算任务重复4000次,以便使得解趋向更加精确。

技术风险及需要克服的困难

1

量子比特不能从本质上隔离噪声。对于操作量子比特的量子计算机来说,最重要的设计参数之一是错误率,低错误率一直很难实现。只有进一步抑制输入端的噪声污染才能成功地进行量子计算。

2

无误差的量子计算需要进行量子误差校正。执行量子误差校正算法需要更多的量子比特,这使得计算机的开销增大,导致短时间内无法应用。

3

大数据无法有效加载到量子计算之中。没有办法将大量的数据转换成量子态。对于需要海量数据输入的问题,产生输入量子态所需的时间将占据大部分计算时间,这大大降低了量子计算的优势。

4

量子算法的设计具有挑战性。要想充分发挥量子计算机的优势,量子算法必须利用独特的量子特性。因此,量子算法的实现需要一种新的设计原则。

5

量子计算机需要新的成套软件。由于量子程序不同于经典的计算机程序,需要进一步研究和开发软件工具。量子计算机完整软硬件工具的同步发展,将加速量子计算机的发展。

6

量子计算机的中间状态无法直接测量。目前,量子态不能简单地复制用于测试,任何量子态的测量都会导致计算停止。新的调试方法对大型量子计算机的发展具有重要意义。

更多精彩观点

01

量子计算发展主要困难和技术路线

量子并行计算技术发展的主要困难

量子计算机现在只是刚起步,目前的硬件水平还不能制造出通用的量子计算机。量子比特会与外部环境发生作用而使量子衰减,这是目前面临的主要技术难题,而实现量子并行计算的两大技术困难如下:

其一,量子比特之间的相干性很难长时间保持。

目前,量子计算机的研究还处于理论和实验阶段,只能产生几十个量子位。为了在量子计算机中实现高效的并行操作,必须使相互关联的量子比特串作一个整体,即量子相干。这样,只要处理其中一个量子比特,影响就会立即传输到序列中的其他量子比特。这一特性是量子计算机高速运行的关键。

由于量子相干系统与周围环境的相互作用,相干度会迅速衰减,并且随着量子比特数的增加,保持相干态将变得越来越困难。目前,此连贯性只能维持不到一秒钟。在如此短的时间内需要完成一定数量的逻辑运算,这对量子逻辑门的开关速度提出很高要求,而量子编码是迄今发现的最有效的方法。

量子编码是用一些特殊的量子态来表示量子比特,以达到保持相干性的目的。主要的量子编码方案是:量子纠错码、量子避错码和量子防错码。其中,量子纠错码是经典纠错码的类比,是目前研究最多的一类编码,其优点为适用范围广,缺点是效率不高。

其二,要做出逻辑比特,则目前物理比特的数量仍不足。

量子比特可以进一步分为物理比特和逻辑比特。由于噪声的客观存在和物理比特稳定性的一些缺陷,只有通过对多个物理比特的冗余处理,才产生逻辑比特。一般来说,噪声较小的系统可以用较少的物理比特对逻辑比特进行编码。与物理比特相比,逻辑比特具有更好的容错性。

因此,尽管IBM、谷歌和英特尔已经制作了原型机并获得“量子霸权”,但如果他们想制作逻辑比特,则目前物理比特的数量还远远不够。事实上,这些量子计算机还处于非常原始的阶段,只能适用特定的应用。

当前,实现标准量子计算机的难点在于无法实现编码逻辑比特,当然还存在系统扩展、逻辑门精度等问题。由于这些技术瓶颈,现在开发的量子计算机只能称为原型,它们只能执行单一的特定功能,而无法实现通用的量子计算。

全球量子计算机四种技术实现路径之争

科学界最近涌现出的一些进步重新点燃了科学家想方设法组建更强大的量子计算机的热情,并促使其使用不同技术研制计算能力超强的量子计算机,从而使全球出现了四种主要的量子计算机技术实现路径。

第一,用超低温超导材料制成量子计算机。

加拿大D-wave系统公司开发的量子芯片采用特殊的铌金属材料,这种材料在低温下呈超导态,其电流具有顺时针、逆时针和顺逆时同时存在的混合状态。在此基础上,实现了量子计算。D-wave系统公司已经开始在市场上销售量子计算机业务系统,主要客户包括谷歌和美国宇航局喷气推进实验室。

第二,基于微电子制造技术的量子计算。

过去几年IBM依托于耶鲁大学和加州大学圣巴巴拉分校在量子计算领域取得了进展,研究小组将超导材料铼和铌分散在半导体表面,当冷却到绝对零度时,半导体表面呈现量子行为。研究结果表明,量子计算可以建立在标准微电子制造技术的基础上。

第三,离子阱制造量子比特。

离子阱技术是利用离子阱中的离子制造量子比特,即利用电极产生电场,在电场里“俘获”经过超冷处理的离子。研究人员已经能够利用激光实现离子纠缠。到目前为止,研究人员已经用这种方法建立了一个由8个量子位组成的系统,全球有20多个大学和公司的研究实验室从事类似的研发和设计。

第四,使用量子纠缠来获取信息。

量子计算机的基本单位是量子比特,即用原子的自旋等粒子的量子力学状态表示0和1。量子比特因可同时处于0和1的状态(量子叠加),使得量子计算机可以同时进行大量运算。根据量子力学的基本原理,随着量子比特数的增加,其计算能力呈指数增长,但是观测或测量量子比特可能会造成其计算潜力的削减。因此,研究人员利用量子纠缠来获取信息。在量子纠缠中,粒子连接在一起,则测量一个粒子的性质可以直接揭示另一个粒子的相关信息。然而,如何扩大纠缠量子位的数目并保持纠缠态是当前量子信息研究领域的一个严峻挑战。

量子计算机技术前沿

技术一,在极冷的环境下控制量子。(主要研究者为谷歌、IBM和英特尔)

量子计算机能力的“大”和“小”,基本上取决于其量子比特的数量,而在传统架构下,当量子比特的数量迅速增加,一些基本粒子对于外界的干扰会越来越敏感,导致错误率急剧上升。由于量子是微观粒子,因此哪怕极其微小的电磁场都会对其构成干扰,产生所谓的“局部噪音”。同时,由于热辐射和电磁辐射等环境噪声的存在,量子系统会受到环境的干扰。

只有在零场强和绝对零度的环境中,才有理想状态下的量子计算。这也是为什么量子计算机要放在接近绝对零度的容器里,被严严实实地封闭起来,对外界干扰“严防死守”。但是,由于这种温度环境需要消耗大量的资金和能源,这在一定程度上就阻碍了量子计算机小型通用化的技术进程。

技术二,采用“拓扑量子比特”进行计算。(主要研究者为微软)

微软不是使用普通的“逻辑量子比特”进行计算,其独特的技术路线是采用“拓扑量子比特”进行计算。拓扑量子比特是通过基本粒子的拓扑位置和拓扑运动来处理信息。无论外界的干扰如何“蹂躏”基本粒子的运动路径,只要它还连续变化,从拓扑角度来看,其运动就是等价的。

这也就是说,用拓扑量子比特进行计算,对于外界的干扰有极强的容错能力。这样一来,基于拓扑量子比特的计算机就可以在规模上很大,在能力上很强。微软是当前压宝拓扑量子计算的科技巨头。这个技术一旦取得突破,长期困扰我们的诸多计算难题将迎刃而解。

技术三,使用量子退火原理寻找最优解。(主要研究者为D-Wave)

量子退火算法可以这样理解:在量子工作环境中加入一个随机的扰动,使得计算的解更容易出现在距离最优解更近的地方,然后多次进行退火过程使结果不断接近最优解。退火算法就是利用现实世界中量子系统的自然趋势来寻找能量状态的最低点。如果优化问题和量子系统自然趋势的峰值和谷值相似,则每一个坐标就代表一种可能的解决方案,而高度(峰值和谷值的差)则表示能量值。最优解就是能量状态的最低点和量子系统的谷值相互对应。

进一步的解释是:在量子计算机里,由于量子的物质波,量子的位置可以是它附近的任一处,只不过概率不同。初始时,我们给予某量子一个扰动,就好比金属开始退火时升高温度,它有可能会产生一个与当前值有一定距离的新值,然后计算机比较这两个值。接下来我们可以更改这个扰动,好比升高退火的温度,使量子可能出现在更多的地方,并继续进行比较判断,直到最终找到最优解,而此时量子恢复初始的稳定状态,就好比金属的退火结束,温度恢复到了正常温度。这也是为什么这个方法被称为量子退火。量子退火算法就是让大自然自己去选择最优的答案。目前商用量子计算机(其实是量子退火机)D-WaveTwo会对每次计算任务重复4000次,以便使得解趋向更加精确。

02

国家层次的战略投资

从历史上看,一项技术的进步取决于对该技术投入的人力和资金的多少。技术的进步将推动经济的收入,从而使资金可持续投资在研发、人才等方面并进一步促进技术创新。如同互联网发展的过程,如果我们想在量子研究中实现持续的指数级别的技术进步,就需要进行指数级别的投资,并保持这种投资的良性循环。

在量子计算机研发中,先期的商业成功将增加整个领域的投资,但在没有商业回报的中间研发环节,则需要政府增加资金支持,因为研发时,艰难的中间环节直接影响研发的成功与否。从现状看,美国、英国、日本、中国等国以及欧盟都在加大对量子计算机开发的投入。

美国

2018年9月,美国政府发布《量子信息科学国家战略概述》,旨在确保美国在“下一场技术革命”中的全球领导地位。同年12月,时任美国总统特朗普签署《国家量子计划法案》,该法案旨在确保美国在量子信息科学及技术应用方面的领先优势,支持量子信息科学技术的研究、开发、论证和应用,要求美国总统实施“国家量子计划项目”。法案授权在10年计划的前5年投资12.75亿美元用于量子信息科学,其中,向美国国家标准与技术研究院拨款4亿美元,向美国国家科学基金会拨款2.5亿美元,向美国能源部拨款6.25亿美元。这些资金将用于培养科学家、拓展研究和建立10个量子研究与教育中心。同时,该法案要求加强联邦量子信息科学技术研发的跨机构规划与协调,建立一个国家量子协调办公室,促使产业界与学术界建立伙伴关系。

英国

早在2013年的秋季预算中,英国政府就专门拨款2.7亿英镑用以支持“英国国家量子技术项目”在第一个5年的开展,意在加速量子技术的商业化进程。该项目包含4个研究中心,分别由4所高校主持,除了牛津大学领导的量子信息技术中心之外,还有伯明翰大学领导的量子传感和测量中心、约克大学领导的量子通信中心、格拉斯哥大学领导的量子先进成像中心。从2014年英国启动此项目,到2019年6月英国政府宣布向量子计算商业化投资1.53亿英镑以推动研发竞赛、新产品和创新、行业主导项目以及投资加速,5年间总投资超过10亿英镑。

欧盟

2016年3月,欧盟委员会发布《量子宣言(草案)》,计划于2018年启动总额10亿欧元的量子技术项目,旨在促进包括安全的通信网络和通用量子计算机等在内的多项量子技术的发展,以确保欧洲量子产业在全球产业蓝图中的领先地位。2018年10月,“欧盟量子旗舰项目”启动,这个10年预计花费10亿欧元的超大项目计划在三年内建造其第一台量子计算机Open Super Q,其目标是构建一台包含100个量子比特的量子计算机,并可以开放给外部用户使用。德国、西班牙、瑞典、瑞士和芬兰的10个学术和私营企业合作伙伴参与Open Super Q研发项目。欧盟量子旗舰项目重点关注四种量子技术:通信、计算、感知和仿真。同时,还将基础科学纳入其中。

日本

日本于2018年启动“量子飞跃旗舰计划”,总预算是10年220亿日元,其中三分之一将投入到量子计算机研究领域,针对此研究课题日本政府采取了产学研一体化方式进行。日本政府计划在2019年下半年将相关预算提高至250亿日元,比当时的140亿日元预算增加近一倍,以便加快量子技术的研发,为超高速量子计算提供基础技术支持,同时计划建立从基础研究到知识产权管理的综合性研究机构,推进人才培养。2019年11月日本政府专家会议在技术开发进度汇总表中提出,力争20年后实现能够进行超高速复杂计算的量子计算机实用化,缩小与欧美及中国相关领域的差距。

中国

中国将量子调控与量子信息列入“国家重点研发计划”。2016年7月,中国政府宣布将启动量子计算机研发。2017年2月,世界上最大的量子研究设施——中国量子信息科学国家实验室建设启动,一期计划投入70亿元人民币,长期投资将达千亿元人民币。2020年12月,中国科学技术大学宣布,该校潘建伟团队与中科院上海微系统所、国家并行计算机工程技术研究中心合作,成功构建76个光子的量子计算原型机“九章”,在量子计算第一阶段树起了一座里程碑。

03

风险与历史机遇

技术风险及需要克服的困难

第一,量子比特不能从本质上隔离噪声。

经典计算机和量子计算机的主要区别之一,即它们如何处理系统中微小的干扰噪声。实际上,今天的经典计算机用于控制的操作位有很大的噪声边际,所以经典计算机可以抑制输入端的噪声污染,产生干净无噪声的输出。

然而,对于操作量子比特的量子计算机来说,最重要的设计参数之一是错误率,低错误率一直很难实现。即使到2018年,5个或者更多个数的量子比特系统其错误率也超过几个百分点。在较小的系统中一般可以有效控制错误率,但当需要转移到更大的量子比特系统中时则较困难,只有进一步抑制输入端的噪声污染才能成功地进行量子计算。

第二,无误差的量子计算需要进行量子误差校正。

虽然物理量子比特的操作对噪声很敏感,但是可以在量子计算机中运行量子误差校正算法来模拟无噪声或者完全校正的量子计算。如果没有量子误差校正,像秀尔算法这样复杂的程序就不太可能在量子计算机上准确运行。

然而,执行量子误差校正算法需要更多的量子比特,这使得计算机的开销增大。虽然对于无错误的量子计算,量子比特数量至关重要,但是因为开销过大,导致短时间内无法应用。

第三,大数据无法有效加载到量子计算之中。

虽然量子计算机可以使用更少的量子比特来表示更多的数据,但是没有办法将大量的数据转换成量子态。对于需要海量数据输入的问题,产生输入量子态所需的时间将占据大部分计算时间,这大大降低了量子计算的优势。

第四,量子算法的设计具有挑战性。

测量量子计算机的状态需将大量的量子态“折叠”成单个经典结果,这意味着,从量子计算机中所能提取的数据量与从同样大小的经典计算机中提取的数据量相同。

但在未来,要想充分发挥量子计算机的优势,量子算法必须利用独特的量子特性。因此,量子算法的实现需要一种新的设计原则。量子算法的发展是量子计算机技术发展的一个非常重要的方面。

第五,量子计算机需要新的成套软件。

由于量子程序不同于经典的计算机程序,需要进一步研究和开发软件工具。量子计算机完整软硬件工具的同步发展,将加速量子计算机的发展。利用早期的工具完成端到端的设计,有助于发现隐藏的问题,从而促进设计的整体成功,这也是经典计算机设计所采用的一套方法。

第六,量子计算机的中间状态无法直接测量。

量子硬件和软件的调试非常重要。目前,量子态不能简单地复制用于测试,任何量子态的测量都会导致计算停止。新的调试方法对大型量子计算机的发展具有重要意义。

在量子计算机实现之前,量子计算还存在着重大的技术障碍。构建和使用量子计算机,需要整合计算机科学、数学、物理、化学、材料科学等一系列学科。

历史机遇

今天,科学发展的趋势有两个:

一是发现现有物质在原子层面和分子层面的组合方式,这涉及生命科学、高端材料等学科;

二是探索世界存在的本质,量子论和相对论是这一领域里的两大利器。

量子计算机的实现正在带来信息技术的革命性变化,首先可能应用于医疗、国防、航天、金融、材料等行业。如果想在这些领域内有突破性的进展,就必须突破计算量太大的难关。因此,量子计算对这些领域的发展意义极大,计算能力的飞跃必然导致这些领域的大发展。

就算法而言,量子计算机有两大优点:

一是对于任意一个传统计算机的算法,均有其相应的量子算法;

二是存在传统计算机算法无法模拟的量子算法。

人们只要造出位数和传统计算机相近的量子计算机,传统计算机算法就必然会被取代。随着人类使用的数据量越来越大,各种类型的量子计算机一定会走进我们的日常生活。量子计算机尽管在短期内不可能取代传统计算机,但它必将是人类科技文明的一个重要里程碑,是未来科技的引擎。除了量子计算潜在的社会益处之外,这项工作对国家的安全也有重大影响。

量子计算对于推动基础性研究具有重要价值,这些研究将有助于人类理解与认识未知世界。与所有的基础性研究一样,这一领域的进展会带来革命性的新知识和新应用。量子计算一定会给这个世界带来一次全新的技术革命,今天的我们甚至无法想象这样的技术革命会给社会带来怎样巨大深刻的变化。

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/484353.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

vs code 配置java

VS code 入门 Vs code 配置Java 首先到VS code官网下载VS code软件,打开界面如图: 下载安装好,打开界面如图(注下图已汉化): 为了便于使用,我们先进行汉化,在最左边点击图1-1中的图标,出现如图…

四、HTTP控制器

1、控制器的作用&#xff1a;数据和视图之间的桥梁 2、控制器创建方法&#xff1a; &#xff08;1&#xff09;手动创建 <?php namespace App\Http\Controllers; class UserController extends Controller { public function showProfile($id) { return view(user.profile,…

机器人行业专利构建与维护刻不容缓,专利研发需下苦功!

来源&#xff1a;机器人大讲堂自我国加入世界贸易组织&#xff0c;已经近20年过去。但不可忽视的是&#xff0c;发达国家或地区利用其产业先发优势&#xff0c;也一直在知识产权和专利上&#xff0c;采用知识产权和专利贸易壁垒&#xff0c;限制我国企业参与国际市场竞争。机器…

java-弹簧布局(自适应窗口)

一、布局管理器 弹簧布局管理器以容器和组件的边缘为操作对象&#xff0c;通过组件与容器边缘以及组件与组件边缘建立约束(建立位置关系)&#xff0c;实现对组件的布局管理。主要通过函数putConstraint(Strting s1,Component c1,int len,Strting s2,Component c2);当s2在s1的北…

从1G到5G,从回顾过去到展望未来

来源&#xff1a;《从1G到5G&#xff1a;移动通信如何改变世界》 作者&#xff1a;王建宙始于20世纪80年代的蜂窝式移动通信&#xff0c;只用了30多年的时间&#xff0c;就实现了在全世界的普及。如今&#xff0c;手机是人们随身携带的使用频率最高的工具。手机改变了人类的沟…

重磅:国拨概算5.34亿!“新一代人工智能”重大项目项目申报指南发布

来源&#xff1a;brainnews各省、自治区、直辖市及计划单列市科技厅&#xff08;委、局&#xff09;&#xff0c;新疆生产建设兵团科技局&#xff0c;国务院各有关部门&#xff0c;各有关单位&#xff1a;为落实国务院印发的《新一代人工智能发展规划》总体部署&#xff0c;现根…

Idea中在代码顶部添加自定义作者和时间

一、在工具栏找到File>settings>Editor>File and Code Templates 二、选择右边的File Header,在编辑框中添加自定义信息&#xff0c;例如&#xff1a; 三、然后点击应用&#xff0c;保存就OK啦&#xff01; 转载于:https://www.cnblogs.com/HelloBigTable/p/10261145.…

MFC框架解析

通过上述方法&#xff0c;我们进行代码的编写&#xff0c;创建一个空项目&#xff0c;我们要编写MFC应有程序&#xff0c;因此设置项目的属性&#xff0c; 项目->属性->链接器->系统->子系统为&#xff1a;窗口 (/SUBSYSTEM:WINDOWS)&#xff0c;项目->属性-&g…

162年难题,黎曼猜想被印度数学家迎刃而解?克雷数研所发出质疑

来源 &#xff1a; 新智元黎曼猜想又被证明了&#xff1f;5年前&#xff0c;印度一名数学物理学家Kumar Easwaran声称自己证明了「黎曼猜想」&#xff01;他发表了一篇论文「The Final and Exhaustive Proof of the Riemann Hypothesis from First Principles」解释自己的发现&…

MFC的六大关键技术

//main.h头文件 #pragma once #include"a.h" class CShape { public:virtual CRuntimeClassTest* GetRuntimeClassTest() const;BOOL IsKindOf(const CRuntimeClassTest* pClass) const; public:static CRuntimeClassTest classCShape; };static char szCShape[] &q…

20210709未来智能实验室收录资料

整理&#xff1a;未来智能实验室1.加州理工博士&#xff1a;用概率模型解析大脑中的神经活动2.智能化战争的基本形态 3.联合全域指挥控制的人工智能生态系统| 新品推荐4.数字化转型白皮书&#xff1a;数智技术驱动智能制造&#xff0c;42页pdf5.2021综述论文《几何深…

HTTP的请求报文与响应报文

报文&#xff1a; 简单来说&#xff0c;报文就是也就是HTTP报文&#xff0c;作用是在各个系统之间进行和响应时用来交换与传输的数据单元&#xff0c;即站点一次性要发送的数据块&#xff0c;这些数据块以一些文本形式的元信息开头&#xff0c;这些信息描述了报文的内容及含义&…

MFC关键技术-动态创建

//a.h头文件 #pragma once #include"m.h" #include<iostream> using namespace std;class CShape;//类声明//RTTI结构体 struct CRuntimeClassTest {LPCSTR m_lpszClassName;int m_nObjectSize;UINT m_wSchema;CShape*(PASCAL*m_pfnCreateShape)();//PASCAL宏为…

谷歌利用人工智能设计的芯片揭示了智能的本质

来源&#xff1a;TechTalks 网站作者&#xff1a;Ben Dickson译者&#xff1a;Sambodhi策划&#xff1a;刘燕InfoQ 中文站曾经翻译并分享过《谷歌的深度学习在 AI 芯片中找到了一条关键路径》&#xff0c;该文介绍了 ZDNet 与谷歌大脑总监 Jeff Dean 谈到谷歌如何使用人工智能来…

MFC关键技术-永久保存机制

//Main.h文件 #pragma once #include<afxwin.h>class CEllipse :public CObject {DECLARE_SERIAL(CEllipse)private:double m_point; public:CEllipse(){}void Serialize(CArchive&); };//Main.cpp文件 #include"main.h"IMPLEMENT_SERIAL(CEllipse, CObjec…

2021世界人工智能大会最高奖项——卓越人工智能引领者奖(Super AI Leader,简称SAIL奖)在大会开幕式揭晓...

来源&#xff1a;AIII研究院备受全球人工智能界关注的2021世界人工智能大会最高奖项——卓越人工智能引领者奖&#xff08;Super AI Leader&#xff0c;简称SAIL奖&#xff09;今天在大会开幕式揭晓。获得2021 SAIL奖的是——利物浦大学机器人科学家、中科院上海微系统所免开颅…

2021年,深度学习还有哪些未饱和、有潜力且处于上升期的研究方向?

来自&#xff1a;知乎 作者&#xff1a;谢凌曦、数据误码率、Zhifeng编辑&#xff1a;极市平台 在目前的深度学习领域&#xff0c;有些研究方向已经较为成熟&#xff0c;实现新突破的难度与过去相比显著提升。那么就目前来看&#xff0c;还有哪些方向处于朝阳阶段&#xff0c;相…