量子计算陷入难解困境,未来发展何去何从?

来源:科研圈


量子计算机在一些具体任务上的表现很快就能超越传统电子计算机,但是在量子计算真正实现其巨大潜力前,依然需要克服许多基础性的难题。


在量子计算的可行性被质疑长达几十年后,全世界范围内忽然掀起了对于量子计算的追逐狂潮。两年前,IBM 向公众开放了一台只有 5 个量子比特的迷你量子计算机,被人们(有些尴尬地)称为 IBM 的 Q 体验。对于研究者来说,那更像一台玩具而不是能够真正进行高强度数据运算的机器。不过,全世界依然有超过七万用户注册并体验了这一服务。截止目前,其量子比特数已经翻了两番。 IBM 和英特尔公司分别宣称他们建造了具有 50 和 49 量子比特位的量子计算机,谷歌也正伺机而动。“量子计算的科研圈子很有活力,并且最近也确实取得了巨大的进展,”来自柏林自由大学的物理学家延斯·埃斯特(Jens Eisert)说。


大家都在谈论着实现所谓的“量子霸权”,即量子计算机执行某个任务的能力将超越最好的超级电子计算机。乍一听到这个概念,再看看现有量子计算机中的 50 个量子比特和笔记本电脑里面上百亿的传统比特,这种悬殊的差异,不免让人觉得是天方夜谭。但是量子计算机的最大优势就是每一个量子比特的运算能力都远远高于传统比特。长久以来,大家都相信 50 个量子比特的量子计算机应该能够解决让传统计算机束手无策的某些问题。在 2017 年年中,谷歌的研究人员宣布他们希望能够在年末时证实量子霸权的存在。不过当被问及最新进展时,一位发言人说“尽管我们希望能够尽快的宣布结果,但我们也需要认真审查工作中的所有细节,确保结果的可信度”。



现在的研究进展也许会让人兴奋地觉得所有的基础和原则性问题都已得到解决,未来通往通用量子计算的道路上只剩下工程技术需要去实现。但遗憾的是,事实远非如此。量子计算的基础物理问题并没有得到完全解决,而这些问题与量子计算的技术实现紧密相关。


即便我们很快能够实现“量子霸权”这一里程碑,接下来的一两年也将是检验量子计算机能否革新传统计算领域的关键时刻。通往通用量子计算时代的道路仍然极为坎坷,需要多方的共同努力。


BM 的量子计算中心, Connie Zhou for IBM


量子计算机的本质


量子计算的优势和所面临的挑战,都源于量子物理本身。很多人都尝试过解释量子计算的基本原理,但并不总能说明白它与经典计算之间的细微差别。经典计算机是通过一串二进制代码 0 和 1 来编码和操纵信息。量子比特所做的事情在本质上并没有区别,只是它们能够处在 0 和 1 的叠加态下。换而言之,当我们测量量子比特的状态时,会得到一个一定概率的 0 或 1 。


为了用许多这样的量子比特执行计算任务,它们必须持续地处在一种相互关联的叠加态下,即所谓的量子相干态。这些量子比特处于纠缠之中,一个比特的变化能够影响到剩下所有的量子比特。这就暗示了基于量子比特的运算能力将远远超过传统比特。传统电子计算机的运算能力随着比特位的增加呈线性增长,而每增加一个量子比特位,则有可能使量子计算机的运算能力加倍(呈指数增长)。这也就是为什么 5 量子比特位和 50 量子比特位的量子计算机有天壤之别。


值得注意的是,我从来没有声称——尽管很多人这么说过——相对于传统电子计算机,量子计算机的优势来源于叠加极大地增加了可以进行信息编码的态的数量。我也没有宣称量子比特的纠缠性质允许许多运算得以平行进行。尽管这些说法在某种意义下有正确的成分,但是都没有抓住量子计算的本质。


一个 50 量子比特位计算系统的中心结构   Connie Zhou for IBM


为什么量子计算机的计算能力如此强大?实际上,我们很难精确地给出一个定性的回答,因为科学家们难以精确解释量子力学的含义。量子理论的方程确实表明,至少在大多数因式分解和数据库搜索上,量子计算的运行速度相比传统计算机有了极大提高,但这到底是如何提升的却依然未知。


也许最保守的说法应该是,量子力学创造了一种传统计算机所没有的“计算资源”。正如来自于加拿大滑铁卢圆周理论物理研究所的量子物理学家丹尼尔·戈兹曼(Daniel Gottesman)所说,“计算中应用了足够多的量子力学,计算速度就会极大提高。没有用够,就没有提高。”


不过有些事情是清楚的,在进行量子计算的时候,你必须确保所有的量子比特处于相干态中。这是一个十分困难的要求,因为量子相干系统会与它们周围的环境相互影响,使得相干性迅速衰减,也就是“退相干”。研究者们所建造的量子计算机必须拥有能延缓“退相干”的能力,而目前相干性最多只能保持不到一秒。随着量子比特数量的增加,保持相干态将变得越来越难,因为越多的量子比特数意味着系统越容易和周围环境相互影响。这也在很大程度上解释了,为什么 1982 年费曼就提出了量子计算的概念,其基础理论也在 90 年代早期逐渐成熟,但是直到最近才出现能实际进行计算的设备。


干扰和错误


实现量子计算还面临着一项基础性困难。和自然界的其它过程一样,噪声干扰无处不在。随机波动、来自量子比特的热能、甚至基本的量子物理过程都可能会改变量子比特所处的状态,进而干扰到量子计算。这同样也是影响传统电子计算机运算的一个问题,不过解决办法比较简单有效:只要给每个比特位备上多个副本,这样出现错误的那一个就会十分明显,立刻被发现。


量子计算的研究者们找到了一些解决噪声的办法。但是这些办法都需要消耗巨大的、甚至所有的计算能力,用于纠错而不是运行你所需要的算法。安德鲁·柴尔兹(Andrew Childs),马里兰大学量子信息和计算科学联合中心的主任之一评论道,“目前的编码错误率严重限制了量子计算的复杂程度。如果我们想用量子计算机做一些有意思的事情,那在这方面必须做到更好。”


安德鲁·柴尔兹(Andrew Childs),马里兰大学, by John T. Consoli


很多关于量子计算基础理论的研究都集中到了编码纠错上来。这个领域的部分困难来源于量子力学的另外一个基本特性:观测会破坏量子比特所处的叠加态,而使其坍塌到一个具体的值—— 0 或 1 上。那么问题来了:如果你不能测量一个量子比特所处的状态,你如何能够发现它出错了?


一个十分精妙的办法就是将量子比特和另一个“附属比特”联系起来,而附属比特并不直接参与计算过程。如此一来,就可以通过测量“附属比特”来得到主比特的信息,同时不会引起主比特的坍塌。但理论不等于实际。采用这种办法,即建造一个能够完成自我编码纠错的“逻辑量子比特”,意味着你会需要很多个实际的量子比特。


到底需要多少个?来自哈佛大学的量子物理学家阿兰·阿斯普鲁古兹克(Alán Aspuru-Guzik)预计在现在的技术水平下大约需要上万个实际量子比特才能建造一个“逻辑比特”。这是一个天方夜谭的数字。当然他也承认,随着技术进步,这一数字会大大减小,降低到只需要几千个甚至数百个。德国柏林自由大学的埃斯特则没有那么悲观,认为现在大约 800 个量子比特就能够构建一个逻辑量子比特。不过即便如此,他也同意“自检负担还是太重。” 当下,我们还是需求寻求新的办法去处理这些容易产生编码错误的量子比特。


一种替代的方式就是去避免量子比特产生错误,或者消除错误带来的影响。这种办法被称之为错误抑制算法(error mitigation)。比如来自于 IBM 的研究者们就在开发新的办法——从数学上计算出一次运算中究竟有多少编码错误会产生,从而推断出“零噪声”极限下的计算结果。


一些研究者认为量子编码纠错是一个非常棘手的问题,而且会阻碍量子计算各种伟大目标的实现。来自以色列耶路撒冷希伯来大学的数学家吉尔·卡莱(Gil Kalai)说,“创造出真正的量子编码纠错比展示量子霸权要困难得多。” 并且他认为“没有编码纠错能力的计算设备是非常原始的,而在这样的计算设备上展示量子霸权是根本不可能的。”简而言之,出错的量子计算机,永远比不过传统计算机


而另外的一些研究者则相信量子编码纠错的难题最终会被攻破,根据一位来自 IBM 汤姆斯沃森研究中心的量子信息学家杰伊·加贝塔(Jay Gambetta)的说法,“我们最近在 IBM 所进行的实验展示了小型设备上的量子编码纠错的原型,也为在更大规模的设备上长时间稳定存储量子信息打下了坚实的基础。” 即使如此,他也承认“距离一个能够使用逻辑比特位,进行编码纠错的通用量子计算机仍然有很长的道路要走。”这些进展让柴尔兹保持一个谨慎的乐观态度:“我相信我们很快就能看到优化的量子编码纠错的实验展示,但距离真正的应用还有很远。”


学会共存


目前为止,量子计算机都很容易产生编码错误。问题是我们如何能够和编码错误“和谐”相处。在 IBM,研究者们正在谈论近期内实现这一想法的一个可能方法——“近似量子计算”。也就是说去找到能够适应、容忍噪音的算法,能够在噪音的干扰下,仍然得到正确的答案。


这就像是在大选中,我们能够无视一些出错的的电子选票,仍然得到正确的选举结果。“一个拥有足够大的计算能力和足够高保真度的量子计算机,应当具备超越现有电子计算机的优势。尽管它不一定能完全不受噪音干扰。” 加贝塔说。


Lucy Reading-Ikkanda / Quanta Magazine


现阶段一个最有可能的容忍噪声的应用,就是在原子层面上进行物质模拟(事实上,这正是费曼提出量子计算的出发点)。对科学家们来说,这更有价值。


量子力学的方程给出了一种计算物质性质的途径,例如一个药物分子稳定性和化学反应性。但是如果不做出诸多简化,传统计算方法对此无能为力。


相比之下,柴尔兹说,电子和原子的量子行为,“与量子计算机的计算原理更加紧密相关。”所以我们能够构造一个具体分子的计算机模型。“包括我在内的这一领域的很多研究者都坚信量子化学和材料学将会成为这种计算设备最早的有应用价值的领域,” 阿斯普鲁古兹克说道。他一直在竭力推动量子计算向这一方向发展。


量子模拟目前正在一些比较小的量子计算机上证明着自身的价值。一队包括阿斯普鲁古兹克在内的研究者们正在开发一种被称之为可变量子本征求解(variational quantum eigensolver, VQE)的算法,能够在有外界噪声干扰的情况下找到一个特定分子的最低能量态。当然到目前为止,这种算法只能够处理只含有几个电子的小分子结构,在这个大小下即便是使用传统电子计算机也能够得到准确的计算结果。加贝塔和同事于去年 9 月份使用 IBM 的 6 个量子位的设备去计算了诸如氢化锂、氢化彼等小分子的电子结构。来自瑞士苏黎世皇家理工学院的物理化学家马科斯·雷勒(Markus Reiher)说“这是在量子领域具有跨越性的工作。” 加贝塔则表示:“使用 VQE 算法模拟小分子结构,展示了近期探索性算法的可能。”


但即便是这样的应用,阿斯普鲁古兹克承认,我们也需要能够进行编码纠错的逻辑量子比特位,才有可能真正的超越传统的电子计算机。“我非常期待,具备编码纠错能力的量子计算机成为现实的那一天。”


“如果我们拥有超过 200 个逻辑比特位,我们就能在量子化学上做到传统计算机无法做到的事情。” 雷勒补充道。“如果拥有 5000 个逻辑比特位,量子计算机将为这一领域带来颠覆性的改变。”


量子计算机的“性能”


尽管有很多挑战,但是反过来讲,不过一年量子计算机就从 5 个比特位跨越到 50 个比特位的巨大进步,着实给我们带来了很多希望。但我们不能仅仅满足于这些数字,因为它们只告诉了我们事实的一部分。真正重要的不仅仅是有多少个量子比特位(这甚至不是主要因素),而是量子比特的性能好坏,以及算法是否高效。


所有的量子计算都必须在退相干效应发生并扰乱量子比特前完成。而在目前的条件下,一群预先组装好的量子比特位会在几个微秒内就发生退相干。在这么短的时间内所能完成的逻辑操作的次数,取决于量子逻辑门切换的速度。如果这个速度过慢的话,有再多量子比特位也没用。一次计算所需要的逻辑门操作的次数被称为深度,很显然低深度的量子算法比高深度的算法更容易实现和控制。但问题的关键是它们能不能承担有意义的计算任务。


更重要的是,并不是所有的量子比特所遭受的噪声都是一样的。理论上一些材料的拓扑电子态能够制造出低噪声的量子比特。这些电子态的“形态”使得利用它们来编码二进制信息的时候,有较强的抗随机噪声的能力。来自于微软的研究者们正在一些特别的量子材料中寻找这些拓扑电子态。但到目前为止还不能保证这些电子态被找到或者能够被控制。


来自于 IBM 的研究者们提出了一个“量子容量”( quantum volume)的概念,用于描述特定设备的量子计算能力。这个数字会综合考虑量子比特的数量和关联性、算法的深度、以及量子逻辑门的各项性能指标比如抗噪能力。加贝塔认为只有这样的“量子容量”概念才能对量子计算机的计算能力有一个很好的表征,并且他还认为当务之急就是发展能够提升量子容量的量子计算硬件。


这也就是为什么“量子霸权”这个概念比人们看起来更模棱两可。50 量子比特位的量子计算机就能够超越当今最先进的电子计算机,确实十分诱人,但同时也留下了很多值得深思的问题。量子计算机究竟在解决哪些问题上能够超越电子计算机?在不能用传统设备进行重复试验和检测的时候,如何知道量子计算机得到了正确的答案?你怎么确定在有更优算法的情况下传统电子计算机不能做得更好?


所以我们应该谨慎对待“量子霸权”这个概念。现在更多的研究者倾向于使用“量子优势”,用来指代量子计算设备所带来的速度提升,而不是断言哪种设备更优秀。此外,对于“量子霸权”这个概念的厌恶,还来源其隐含的种族和政治意味。


无论如何命名,展示量子计算机超越现有传统设备,对这个新兴领域具有重大的精神意义。埃斯特说:“确定清晰的量子优势将是一个重要的里程碑。“ 它将证明量子计算机确实可以大幅度扩展目前的科技边界。


确认“量子优势”更多的是具有象征性意义,而不是真正引发计算领域的变革。不过,这件事情仍然非常重要,因为如果量子计算想要取得成功,不能仅靠谷歌或者 IBM 忽然之间出售一些高端机器,而需要开发者和使用者之间紧密的相互合作。只有在相信所有的投入都是有意义的情况下,使用者的各种配套技能才会取得快速发展。


这正是 IBM 和谷歌热衷于向公众开放量子计算设备的原因。在 IBM 的 16 量子比特计算机向所有的在线注册用户开放后,一个 20 量子比特的设备也已经向包括摩根,戴姆勒,本田,三星,剑桥大学等企业用户开放。这不仅能帮助客户们探索量子计算的优势,也会建立起一个充满量子计算开发者们的社群。他们将团结起来创造新资源并解决问题,完成任何一家公司都无法单独做到的事情。


“为了让量子计算真正发力和蓬勃发展,我们必须让全世界都能去使用和学习它,”加贝塔说。“现在正是科研界和工业界努力为量子计算的时代到来做准备的时候。”


未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学交叉研究机构。


未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/496592.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

mysql 64位 8.0.11_mysql8.0.11 在windows64安装 步骤

环境:Windows 101一、安装1. 解压zip包到安装目录比如我的安装目录是:D:\Program\MySQL2.配置文件在Windows系统中,配置文件默认是安装目录下的 my.ini 文件,部分配置需要在初始安装时配置,大部分也可以在安装完成后进…

ProxyChains

proxychains-ng:https://github.com/rofl0r/proxychains-ng proxychains:https://github.com/haad/proxychains shadowsocks:https://github.com/shadowsocks/shadowsocks 安装了 shadowsocks 之后,只能网页出去逛逛,…

IDC发布对话式人工智能白皮书|附下载

来源:专知丨公众号近日,全球著名的信息技术、电信行业和消费科技咨询公司IDC(国际数据公司, International Data Corporation)发布了《对话式人工智能白皮书》(下文简称《白皮书》)。《白皮书》…

Java加密与解密的艺术~思维导图

#原图 System.out.println("https://www.processon.com/view/link/61a8323fe401fd49ed41cde0");

一场关于Google不作恶信条的辩论会

2008年11月18日,Intelligence Squared 在纽约 Rockefeller 大学召开了一次关于 Google 不作恶信条(Dontt be evil Motto)的辩论会,这场牛津式辩论会(Oxford-style debate )持续了近两个小时,《纽…

2017美国人工智能和机器学习行业种子投资首次下降

来源:199IT互联网数据中心根据Crunchbase的数据,风险投资对机器学习和人工智能的热情已经开始趋于平静,至少在美国是这样。但这可能并不是一件坏事。尽管人工智能和机器学习成为学术研究的热点领域已经有数十年了,但是尚未成为风险…

Java加密与解密的艺术~AES实现

AES算法成为DES算法的替代者,其实现也成为其他对称加密算法实现的参考模型。 AES 实现 /*** 2009-10-5*/ package org.zlex.chapter07_3;import java.security.Key;import javax.crypto.Cipher; import javax.crypto.KeyGenerator; import javax.crypto.SecretKey;…

利用多核多线程进行程序优化

利用多核多线程进行程序优化2008 年 11 月 17 日 大家也许还记得 2005 年 3 月 C 大师 Herb Sutter 在 Dr.Dobb’s Journal 上发表了一篇名为《免费的午餐已经结束》的文章。文章指出:现在的程序员对效率、伸缩性、吞吐量等一系列性能指标相当忽视,很多性…

DOS 批处理

From: http://www.jb51.net/article/97204.htm From: http://www.92to.com/bangong/2016/04-08/2998914.html 百度文库:目前为止最全的批处理教程 批处理经典入门教程 批处理的本质,是一堆DOS命令按一定顺序排列而形成的集合。 批处理,也称…

python range 步长为负数_Python入门第7课,循环结构学习,for语句range函数的3种用法...

上课前,大陈带领学生们一起回顾和梳理前面学过的知识。体验课,Python与人工智能初体验。第1课,输出语句及赋值语句。第2课,输入语句学习。第3课、第4课,学习条件控制if语句。第5课、第6课,阶段练习及讲解。…

机器学习,就用Python!五大专家详解其优势何在

编译 :AI科技大本营(公众号ID:rgznai100)那么,为什么 Python 语言在机器学习领域会如此受欢迎?Python 领域资深专家 Mike Driscoll 组织了一次访谈会,邀请了五位 Python 专家和机器学习社区人士…

WinCE 5.0 virtual memory space

要深入了解WinCE的memory结构,就不得不在这里先画个virtual memory space的图。这个图是针对WinCE 5.0的。由于WinCE 6的结构做了很大变化,关于WinCE 6的内容将在以后介绍。 关于这个图的来源,有两点要说明。其一,绘制这个图的…

硬件安全 (1) —— SHA-1算法在FPGA上的实现

SHA-1 算法在FPGA上的实现 - 1 背景介绍 散列函数(英语:Hash function)又称散列算法、哈希函数,是一种从任何一种数据中创建小的数字“指纹”的方法。散列函数把消息或数据压缩成摘要,使得数据量变小,将数…

Java加密与解密的艺术~RSA模型分析

我们仍以甲乙两方收发消息为例。为完成加密消息传递,甲乙双方需要以下操作: 1)、由消息发送方(甲方)构建密钥对。 2)、由消息发送方(甲方)公布公钥至消息接收方(乙方&…

区分关联、依赖和聚集关系

在建立对象模型时,很容易把依赖、关联和聚集关系混淆。当对象A和对象B之间存在依赖、关联或聚集关系时,对象A都有可能调用对象B的方法,这是三种关系之间的相同之处,除此之外,它们有着不同的特征。 1.依赖关…

MarkDown 语法手册

From: https://blog.csdn.net/witnessai1/article/details/52551362 From: http://www.jianshu.com/p/1e402922ee32/ 菜鸟教程:Markdown 教程:https://www.runoob.com/markdown/md-tutorial.html Markdown 语法手册:https://www.zybuluo.com…

硬件安全(1)—— SHA-1算法在FPGA上的实现-2

SHA-1算法在FPGA上的实现-2 在上一篇文章中&#xff0c;我详细介绍了SHA-1算法的计算过程。SHA-1算法主要由消息填充(Message Padding)和哈希计算(Hash Function Engine)两部分组成。消息块标准长度规定为512bits一组。消息填充在实现过程中需要区分长度不足一个消息块( < …

Mysql -uroot -p 登陆不上_mysql的登陆和退出命令格式

mysql登陆的命令格式为&#xff1a;mysql -h [hostip] -u [username] -p [password] [database]1.普通登陆mysql数据库命令格式&#xff1a;mysql -u 用户名 -p 密码&#xff0c;例如: mysql -u root -p root如果在-p后没有提供密码&#xff0c;则会在执行命令后要求用户输入密…

Java加密与解密的艺术~RSA实现

RSA 实现 /*** 2008-6-11*/ package org.zlex.chapter08_2;import java.security.Key; import java.security.KeyFactory; import java.security.KeyPair; import java.security.KeyPairGenerator; import java.security.PrivateKey; import java.security.PublicKey; import …

IBM发布未来五年五大科技预测

来源&#xff1a;人工智能和大数据未来五年五大科技预测之AI偏见&#xff1a;AI 偏见将会爆发。但只有公正的 AI 才能生存。 5年之内&#xff0c;有偏见的AI系统和算法将不断增多&#xff0c;就像早前的计算机病毒增多一样。但我们将采取相应的应对措施&#xff0c;提出新的解决…