量子信息技术研究现状与未来——郭光灿

来源: 中国科学杂志社

量子信息技术是量子力学与信息科学融合的新兴交叉学科, 它的诞生标志着人类社会将从经典技术迈进到量子技术的新时代, 本文将阐述量子信息技术的研究现状与未来. 文中描绘了量子技术发展远景, 即筑建各种类型的量子网络, 包括量子云计算网络、分布式量子计算、 量子传感网络和量子密钥分配网络等. 量子计算机已从实验室的研究迈进到企业的实用器件研制, 目前已发展到中等规模带噪声量子计算机(noisy intermidiate-scale quantum, NISQ)的阶段. 在量子技术时代, 没有绝对安全的保密体系, 也没有无坚不摧的破译手段, 信息安全进入“量子对抗"的新阶段.

1

第二次量子革命

1900 年Max Planck提出“量子"概念, 宣告了“量子"时代的诞生. 科学家发现, 微观粒子有着与宏观世界的物理客体完全不同的特性. 宏观世界的物理客体, 要么是粒子, 要么是波动, 它们遵从经典物理学的运动规律, 而微观世界的所有粒子却同时具有粒子性和波动性, 它们显然不遵从经典物理学的运动规律. 20 世纪 20 年代, 一批天才的年轻物理学家建立了支配着微观粒子运动规律的新理论, 这便是量子力学. 近百年来, 凡是量子力学预言的都被实验所证实, 人们公认, 量子力学是人类迄今最成功的理论.

我们将物理世界分成两类: 凡是遵从经典物理学的物理客体所构成的物理世界, 称为经典世界; 而遵从量子力学的物理客体所构成的物理世界, 称为量子世界. 这两个物理世界有着绝然不同的特性, 经典世界中物理客体每个时刻的状态和物理量都是确定的, 而量子世界的物理客体的状态和物理量都是不确定的. 概率性是量子世界区别于经典世界的本质特征.

量子力学的成功不仅体现在迄今量子世界中尚未观察到任何违背量子力学的现象, 事实上, 正是量子力学催生了现代的信息技术, 造就人类社会的繁荣昌盛. 信息领域的核心技术是电脑和互联网. 量子力学的能带理论是晶体管运行的物理基础, 晶体管是各种各样芯片的基本单元. 光的量子辐射理论是激光诞生的基本原理, 而正是该技术的发展才产生当下无处不在的互联网. 然而, 晶体管和激光器却是经典器件, 因为它们遵从经典物理的运行规律. 因此, 现在的信息技术本质上是源于量子力学的经典技术.

20世纪 80 年代, 科学家将量子力学应用到信息领域, 从而诞生了量子信息技术, 诸如量子计算机、量子密码、量子传感等. 这些技术的运行规律遵从量子力学, 因此不仅其原理是量子力学, 器件本身也遵从量子力学, 这些器件应用了量子世界的特性, 如叠加性、纠缠、非局域性、不可克隆性等, 因而其信息功能远远优于相应的经典技术. 量子信息技术突破了经典技术的物理极限, 开辟了信息技术发展的新方向. 一旦量子技术获得广泛的实际应用, 人类社会生产力将迈进到新阶段. 因此, 我们将量子信息的诞生称为第二次量子革命, 而基于量子力学研制出的经典技术, 称之为第一次量子革命. 量子信息技术就是未来人类社会的新一代技术.

2

量子网络

量子信息技术最终的发展目标就是研制成功量子网络(如图

1所示).

图1  量子网络

量子网络基本要素包括量子节点和量子信道. 所有节点通过量子纠缠相互连接, 远程信道需要量子中继. 量子网络将信息传输和处理融合在一起, 量子节点用于存储和处理量子信息, 量子信道用于各节点之间的量子信息传送.

与经典网络相比, 量子网络中信息的存储和传输过程更加安全, 信息的处理更加高效, 有着更加强大的信息功能. 量子节点包括通用量子计算机、专用量子计算机、量子传感器和量子密钥装置等. 应用不同量子节点将构成不同功能的量子网络. 典型的有(表1):

(1) 由通用量子计算机作为量子节点, 将构成量子云计算平台, 其运算能力将强大无比;

(2) 使用专用量子计算机作为量子节点可以构成分布式量子计算, 其信息功能等同于通用量子计算机. 亦即应用这种方法可以从若干比特数较少的量子节点采用纠缠通道连接起来, 可以构成等效的通用量子计算机;

(3) 量子节点是量子传感器, 所构成的量子网络便是高精度的量子传感网络, 也可以是量子同步时钟;

(4) 量子节点是量子密钥装置, 所构成的量子网络便是量子密钥分配(QKD)网络, 可以用于安全的量子保密通信.

当然, 单个量子节点本身就是量子器件, 也会有许多应用场景, 量子网络就是这些量子器件的集成, 其信息功能将得到巨大提升, 应用更广泛.

上述的量子网络是量子信息技术领域发展的远景, 当前距离这个远景的实现还相当遥远. 不仅尚无哪种类型量子网络已经演示成功, 即使是单个量子节点的量子器件也仍处于研制阶段, 距离实际的应用仍有着很长的路要走. 即便是单个量子节点研制成功, 要将若干量子节点通过纠缠信道构成网络也极其困难——通常采用光纤作为量子信息传输的通道, 量子节点的量子信息必须能强耦合到光纤通信波长的光子上, 该光子到达下个量子节点处再强耦合到该节点工作波长的量子比特上, 任何节点之间最终均可实现强耦合、高保真度的相干操控, 只有这样才能实现量子网络的信息功能. 目前, 连接多个节点的量子界面仍然处于基础研究阶段.

至于远程的量子通道, 必须有量子中继才能实现, 而量子中继的研制又依赖于高速确定性纠缠光源和可实用性量子存储器的研究, 所有这些核心器件仍然处于基础研究阶段, 离实际应用还很远.

因此整个量子信息技术领域仍然处于初期研究阶段, 实际应用还有待时日.

那么, 量子信息技术时代何时到来? 量子计算机是量子信息技术中最有标志性的颠覆性技术, 只有当通用量子计算机获得广泛实际应用之时, 我们才可断言人类社会已进入量子技术新时代.

3

量子计算机

电子计算机按照摩尔(Moore)定律迅速发展: 每 18 个月, 其运算速度翻一番.

20世纪 80 年代, 物理学家却提出“摩尔定律是否会终结"这个不受人欢迎的命题, 并着手开展研究. 最后竟然得出结论: 摩尔定律必定会终结. 理由是, 摩尔定律的技术基础是不断提高电子芯片的集成度——即单位芯片面积的晶体管数目. 但这个技术基础受到两个主要物理限制: 一是由于非可逆门操作会丢失大量比特, 并转化为热量, 最终会烧穿电子芯片, 这也是当下大型超算中心遇到的巨大能耗困难所在; 二是终极的运算单元是单电子晶体管, 而单电子的量子效应将影响芯片的正常工作, 使计算机运算速度无法如预料的提高.

物理学家的研究结果并不影响当时摩尔定律的运行, 多数学者甚至认为物理学家是杞人忧天. 然而物理学家并未停止脚步, 着手研究第2个问题: 摩尔定律失效后, 如何进一步提高信息处理的速度——即后摩尔时代提高运算速度的途径是什么? 研究结果诞生了“量子计算"的概念. 1982年美国物理学家Feynman指出 

[2], 在经典计算机上模拟量子力学系统运行存在着本质性困难, 但如果可以构造一种用量子体系为框架的装置来实现量子模拟就容易得多. 随后英国物理学家Deutsch提出“量子图灵机" [3]概念, “量子图灵机"可等效为量子电路模型. 从此, “量子计算机"的研究便在学术界逐渐引起人们的关注. 1994年Shor [4]提出了量子并行算法, 证明量子计算可以求解“大数因子分解"难题, 从而攻破广泛使用的RSA 公钥体系, 量子计算机才引起广泛重视. Shor并行算法是量子计算领域的里程碑工作. 进入21世纪, 学术界逐渐取得共识: 摩尔定律必定会终结 [5]. 因此, 后摩尔时代的新技术便成为热门研究课题, 量子计算无疑是最有力的竞争者.

量子计算应用了量子世界的特性, 如叠加性、非局域性和不可克隆性等, 因此天然地具有并行计算的能力, 可以将某些在电子计算机上指数增长复杂度的问题变为多项式增长复杂度, 亦即电子计算机上某些难解的问题在量子计算机上变成易解问题. 量子计算机为人类社会提供运算能力强大无比的新的信息处理工具, 因此称之为未来的颠覆性技术. 量子计算机的运算能力同电子计算机相比, 等同于电子计算机的运算能力同算盘相比. 可见一旦量子计算得到广泛应用, 人类社会各个领域都将会发生翻天覆地的变化.

量子计算的运算单元称为量子比特, 它是 0 和1两个状态的叠加. 量子叠加态是量子世界独有的, 因此, 量子信息的制备、处理和探测等都必须遵从量子力学的运行规律. 量子计算机的工作原理如图

2所示.

图2   量子计算机的工作原理

量子计算机与电子计算机一样, 用于解决某种数学问题, 因此它的输入数据和结果输出都是普通的数据. 区别在于处理数据的方法本质上不同. 量子计算机将经典数据制备在量子计算机整个系统的初始量子态上, 经由幺正操作变成量子计算系统的末态, 对末态实施量子测量, 便输出运算结果. 图2中虚框内都是按照量子力学规律运行的. 图中的幺正操作(UU操作)是信息处理的核心, 如何确定UU操作呢? 首先选择适合于待求解问题的量子算法, 然后将该算法按照量子编程的原则转换为控制量子芯片中量子比特的指令程序, 从而实现了UU操作的功能. 量子计算机的实际操作过程如图3所示.

图3   量子计算机的实际操作过程

给定问题及相关数据, 科学家设计相应的量子算法, 进而开发量子软件实现量子算法, 然后进行量子编程将算法思想转化为量子计算机硬件能识别的一条条指令, 这些指令随后发送至量子计算机控制系统, 该系统实施对量子芯片系统的操控, 操控结束后, 量子测量的数据再反馈给量子控制系统, 最终传送到工作人员的电脑上.

量子逻辑电路是用于实现UU变换的操作, 任何复杂的UU操作都可以拆解为单量子比特门Ui

Ui和双量子比特门UjkUjk的某种组合(即可拆解定理), UiUi和UjkUjk是最简单的普适逻辑门集. 典型的单双比特门如图4所示[6-8].

图4   单双量子比特门

基于量子图灵机(量子逻辑电路)的量子计算称为标准量子计算, 现在还在研究的其他量子计算模型还有: 单向量子计算、拓扑量子计算和绝热量子计算(量子退火算法)等.

量子计算机是宏观尺度的量子器件, 环境不可避免会导致量子相干性的消失(即消相干), 这是量子计算机研究的主要障碍[9]. “量子编码"用于克服环境的消相干, 它增加信息的冗余度, 用若干物理量子比特来编码一个逻辑比特(信息处理的单元). 业已证明, 采用起码5个量子比特编码、1个逻辑比特, 可以纠正消相干引起的所有错误. 量子计算机实际应用存在另一类严重的错误, 这种错误来源于非理想的量子操作, 包括门操作和编码的操作. 科学家提出容错编码原理来纠正这类错误, 该原理指出, 在所有量子操作都可能出错的情况下, 仍然能够将整个系统纠正回理想的状态. 这涉及到“容错阈值定理", 即只有量子操作的出错率低于某个阈值, 才能实现量子容错. 容错阈值与量子计算的实际构型有关, 在一维或准一维的模型中, 容错的阈值为10-510−5 [6], 在二维情况(采用表面码来编码比特), 阈值为10-210−2. 经过科学家十多年的努力, 现在离子阱和超导系统的单双比特操作精度已经达到这个阈值. 这个进展极大地刺激了人们对量子计算机研制的热情, 量子计算机的实现不再是遥不可及的. 量子计算机的研制逐步走出实验室, 成为国际上各大企业追逐的目标.

量子计算机研制涉及以下关键技术部件: (1)核心芯片, 包括量子芯片及其制备技术; (2)量子控制, 包括量子功能器件、量子计算机控制系统和量子测控技术等; (3)量子软件, 包括量子算法、量子开发环境和量子操作系统等; (4)量子云服务, 即面向用户的量子计算机云服务平台.

量子计算机的研制从以科研院校为主体变为以企业为主体后发展极其迅速. 2016年IBM公布全球首个量子计算机在线平台, 搭载5位量子处理器. 量子计算机的信息处理能力非常强大, 传统计算机到底能在多大程度上逼近量子计算机呢? 在不是非常大的逻辑深度下, 2018年初创公司合肥本源量子计算科技有限公司推出当时国际最强的64位量子虚拟机, 打破了当时采用经典计算机模拟量子计算机的世界纪录. 2019年量子计算机研制取得重大进展: 年初IBM推出全球首套商用量子计算机, 命名为IBM Q System One, 这是首台可商用的量子处理器(图5(a)和(b)). 2019年10月, Google在 Nature 上发表了一篇里程碑论文, 报道他们用53个量子比特的超导量子芯片, 耗时200 s实现一个量子电路的采样实例, 而同样的实例在当今最快的经典超级计算机上可能需要运行大约1万年. 他们宣称实现了“量子霸权", 即信息处理能力超越了任何最快的经典处理器(图5(c)和(d)).

图5   2019年量子计算机的研制取得重大进展. (a), (b) IBM推出的全球首套商用量子计算机IBM Q System One; (c), (d) Google推出的53个量子比特的超导量子芯片总之, 量子计算机研制已从高校、研究所为主发展为以公司为主力, 从实验室的研究迈进到企业的实用器件研制. 量子计算机将经历3个发展阶段.

(1) 量子计算机原型机. 原型机的比特数较少, 信息功能不强, 应用有限, 但“五脏俱全", 是地地道道地按照量子力学规律运行的量子处理器. IBM Q System One就是这类量子计算机原型机.

(2) 量子霸权. 量子比特数在50∼∼100左右, 其运算能力超过任何经典的电子计算机. 但未采用“纠错容错"技术来确保其量子相干性, 因此只能处理在其相干时间内能完成的那类问题, 故又称为专用量子计算机. 这种机器实质是中等规模带噪声量子计算机(noisy intermediate-scale quantum, NISQ). 应当指出, “量子霸权"实际上是指在某些特定的问题上量子计算机的计算能力超越了任何经典计算机. 这些特定问题的计算复杂度经过严格的数学论证, 在经典计算机上是指数增长或超指数增长, 而在量子计算机上是多项式增长, 因此体现了量子计算的优越性. 目前采用的特定问题是量子随机线路的问题或玻色取样问题. 这些问题仅是Toy (玩具)模型, 并未发现它们的实际应用. 因此, 尽管量子计算机已迈进到“量子霸权"阶段, 但在中等规模带噪声量子计算(NISQ)时代面临的核心问题是探索这种专门机的实际用途, 并进一步体现量子计算的优越性.

(3) 通用量子计算机. 这是量子计算机研制的终极目标, 用来解决任何可解的问题, 可在各个领域获得广泛应用. 通用量子计算机的实现必须满足两个基本条件, 一是量子比特数要达到几万到几百万量级, 二是应采用“纠错容错"技术. 鉴于人类对量子世界操控能力还相当不成熟, 因此最终研制成功通用量子计算机还有相当长的路要走.

4

量子技术时代的信息安全

量子计算机具有强大的信息处理能力, 对现代密码技术构成了严重挑战, 量子技术时代的信息安全问题便成为人们关注的焦点之一. 现代保密通信的工作图如图6所示.

图6  保密通信

Alice将欲发送的明文(即数码信息)输进加密机, 经由某种密钥变换为密文, 密文在公开信道中传递给合法用户Bob, 后者使用特定密钥经由解密机变换为明文. 任何窃听者都可从公开信道上获取密文, 窃听者Eve如果拥有与Bob相同的密钥, 便可轻而易举地破译密文. 如果窃听者虽不拥有破译的密钥, 但他具有很强的破译能力, 也可能获得明文. 只有当窃听者肯定无法从密文中获取明文, 这种保密通信才是安全的.

按照Alice与Bob拥有的密钥是否相同, 保密过程可分为私钥体系(A与B的密钥相同)和公钥体系(A和B的密钥不同, 且A的密钥是公开的).

公钥体系是基于复杂算法运行的, 其安全性取决于计算复杂度的安全; 私钥体系一般也是基于复杂算法, 其安全性同样取决于计算复杂度的安全. 只有“一次一密"的加密方式(即密钥长度等于明文长度, 且用过一次就不重复使用), 这种私钥体系的安全性仅取决于密钥的安全性, 与计算复杂度无关. 当前密钥分配的安全性取决于人为的可靠性.

量子计算机可以改变某些函数的计算复杂度, 将电子计算机上指数复杂度变成多项式复杂度, 从而挑战所有依赖于计算复杂度的密码体系的安全性. 唯有“一次一密"加密方法能经受住量子计算机的攻击, 这种方案的安全性仅依赖于密钥的安全性.

因此, 量子技术时代确保信息安全必须同时满足两个条件:

(1) “一次一密"加密算法. 这要求密钥生成率要足够高;

(2) 密钥“绝对"安全. 当前使用的密钥分配都无法确保绝对安全.

物理学家针对现有密钥分配方法无法确保“一次一密"方案中所使用的密钥的安全性, 提出了“量子密码"方案. 这种新的密码的安全性不再依赖于计算复杂度和人为可行性, 而仅仅取决于量子力学原理的正确性.

物理学家提出了若干量子密码协议(如BB84), 并从信息论证明, 这类协议是绝对安全的, 这就激励了越来越多科学家加入“量子密码"研究行列. 但人们很快就发现, 任何真实物理体系都无法达到量子密码协议所需求的理想条件, 存在着各种各样的物理漏洞, 使得研制出来的实际量子密码系统无法达到“绝对"安全, 只能是“相对"安全. 虽然可以经过努力堵住各种各样的物理漏洞, 甚至提出安全性更强的新的密码协议(如设备无关量子密码协议等), 但终归无法确保真实的量子密码物理系统可以做到“绝对"安全

[10].

那么这种相对安全的“量子密码"是否可获得实际应用呢? 答案是肯定的. 如果能验证真实的量子密码体系可以抵抗现有所有手段的攻击, 就可以认定这类“量子密码"在当下是安全的, 可以用于实际.

中国科学院量子信息重点实验室长期从事量子密码研究, 2005年发明了量子密码系统稳定性的方法, 首次在商用光纤实现从北京到天津125 km的量子保密通信演示(图

7). 2007年发明了量子路由器, 在商用光纤网络中实现4节点的量子保密通信(图8). 2009年构造了芜湖量子政务网, 演示了量子密码的实际应用(图9).

图7   2005年北京–天津125 km 量子保密通信演示网

图8   2007年北京4节点量子保密通信演示网

图9  2009年安徽芜湖量子政务

当前量子密码的研究状况是:

(1) 城域(百公里量级)网已接近实际应用, 密钥生成率可满足“一次一密"加密的需求, 现有各种攻击手段无法窃取密钥而不被发现. 当前必须建立密钥安全性分析系统以检查实际量子密码系统是否安全, 并制定相应的“标准".

(2) 城际网的实用仍然相当遥远, 关键问题是可实用的量子中继器件尚未研制成功. 构建量子中继的核心技术是可实用的量子存储器和高速率的确定性纠缠光源, 这两种技术尚未取得突破性进展.

(3) 经由航空航天器件实现全球的量子保密通信网络, 建造这个网络困难重重, 除了密钥安全性及高速率的密钥生成器的问题之外, 还有如何能实现全天候量子密钥高速分配. 国家是否需要建设这种网络应当慎重研究.

总之, 量子技术时代解决信息安全有两个途径:

(1)物理方法 (适用于私钥体系). 不断提高实际量子密码系统的安全性, 能够抵抗当下各种手段的攻击, 确保密钥的安全性, 再加上“一次一密"加密, 可以使得私钥体制获得实际应用.

(2)数学方法 (适用于公钥体系). 寻找能抵抗量子计算攻击的新型公开密钥体系. 其原理是, 目前无法证明量子计算机可以改变所有复杂函数的计算复杂度, 因而可以找到新的不被量子计算机攻破的新型公开密钥体系. 当然, 量子计算机的攻击能力依赖于量子算法, 当前最强攻击的首推Shor算法. 如果有比它更强大的量子算法出现, 那么这种新型公开密码体系有可能被攻破, 进而促使数学家再去寻找抵抗能力更强的公钥体系. 这将导致从“电子对抗"发展到“量子对抗".

结论: 子技术时代没有绝对安全的保密体系, 也没有无坚不摧的破译手段, 信息安全的攻防将进入“量子对"的新阶段.

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/486291.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

springboot需要tomcat服务器吗_嵌入式 Tomcat AJP 协议对 SpringBoot 应用的影响

前言2020 年 1 月 6 日,国家信息安全漏洞共享平台(CNVD)收录了由北京长亭科技有限公司发现并报送的 Apache Tomcat 文件包含漏洞。Tomcat AJP 协议由于存在实现缺陷导致相关参数可控,攻击者利用该漏洞可通过构造特定参数,读取服务器 webapp 下…

php session 前缀,PHP文件包含--session

利用条件:session文件路径已知,且其中内容部分可控。php的session文件的保存路径可以在phpinfo的session.save_path看到。session 的文件名格式为 sess_[phpsessid],而 sessionid 在发送的请求的 cookie 字段中也可以看到。实例:“…

大脑与数学——利用代数拓扑研究模拟大脑 第一部分

来源:遇见数学蓝脑计划(Blue Brain Project)是尝试利用分子层级的哺乳类脑部逆向工程建立一个电脑模拟脑。这里模拟并不仅是包括人工神经网络模型,也包括生物过程的真实神经元模型,和一个经验重建模型连接组。该计划希…

spring cloud每次修改必须重新打包_Java面试系列spring相关

Spring中的Bean是线程安全的吗?Spring 中的 bean 默认都是单例的,所有线程都共享一个单例实例Bean,因此是存在资源的竞争,是线程不安全的。但是spring中大部分bean都是在方法内部操作,例如:Controller、Ser…

谈谈实现小样本学习的两条路径

来源:混沌巡洋舰小样本学习是当下机器学习界的一个核心课题。大数据是当下深度学习的咽喉,面临收集成本昂贵,甚至根本无法采集的弊端, 小样本学习的实践价值不言而喻。对于众多产业来说, 真正能够收集到大量样本的是极…

什么是物联网?常见IoT协议最全讲解

作者:付强来源:IoT物联网技术(ID:IoT-Tech-Expo)01 什么是物联网?物联网(Internet of Things)这个概念读者应该不会陌生。物联网的概念最早于1999年被提出来,曾被称为继计算机、互联…

java下发命令nbiot,NB物联网之天翼物联(3)——编解码插件上传规则细解(java开发物联网)...

前言电信的编解码插件本意上是可以让我们的开发更加灵活,但是你好歹把文档写明白啊。。。同时在正常的生产中我们的产品不可能只使用电信的模块,有时甚至是客户要求使用移动还是电信的模块,所以兼容性给我们的体验非常直观!我们先…

netcat使用

前言 最近在做渗透测试的时候遇到了端口监听和shell的反弹问题,在这个过程中自己对Netcat这一款神器有了新的认识,现将一些Netcat的用法做一个小总结,希望对各位有帮助! Netcat简介 Netcat是一款非常出名的网络工具,简…

重磅:国家正式出台学术不端行为界定

来源:科研大匠大家都在反对学术不端,何为学术不端?如何界定学术不端行为?其实,此前并没有一个明确的标准。2019年5月29日,国家新闻出版署才正式发布我国首个针对学术不端行为的行业标准——《学术出版规范—…

Gartner:解开关于人工智能的六个迷思

来源:Gartner“人工智能将自动执行所有工作并让人类失业。”“人工智能只是一种虚构的技术。”“机器人将占领整个世界。”围绕人工智能的炒作给主流媒体、董事会议和各企业机构留下了许多迷思。有人担心“万能”的人工智能将占领全世界,有人则认为人工智…

java搭建线程池框架,JAVA线程池管理及分布式HADOOP调度框架搭建

大家看到了线程的好处了吧!单线程需要10S,10个线程只需要1S。充分利用了系统资源实现并行计算。也许这里会产生一个误解,是不是增加的线程个数越多效率越高。线程越多处理性能越高这个是错误的,范式都要合适,过了就不好…

IBM将收购Instana公司,持续推进其混合云和人工智能战略

来源:IBM中国收购 Instana 后,IBM 将帮助企业在多团队和多云(平均 2到 15个)环境下更好地管理他们的应用性能。[1]这也是 IBM 持续完善其由人工智能所驱动的自动化能力的又一例证,IBM 的其他相关举措还包括&#xff1a…

[原创]关于在VS解决方案下使用文件夹管理多个项目层次关系的说明

由于所创建的应用项目或类库项目较多,于是将这些类库放到一个文件夹下。在VS解决方案下确实能看到一个文件夹下多个类库项目这种层次关系。如下图所示: 但打开“我的电脑”,看到的只有类库,并未看到维护层次关系的文件夹。如下图所…

java进阶(二)-java小干货

java一些精干知识点分享 2. java小干货2.1循环遍历2.2可变参数2.3 list和数组转化2.3.1 数组转list2.3.2 list转数组 2.4 值传递和地址传递2.4.1值传递2.4.2 地址传递2.4.3易错点总结 2.5 数组数组帮助类Arrays 2.5 基本数据类型和包装类2.5集合2.6文件流2.7java代码块、内部类…

机器直觉

来源:专知当前以深度学习代表的人工智能技术所能解决的问题往往需要具有大量可以借鉴学习的训练 集, 同时要求所获取的信息是完备的. 但在复杂时变的真实应用环境中, 采集到的数据往往包含大量 噪声与不确定性, 且仅包含环境的局部信息, 导致了基于深度学习的人工智…

vb.net读取excel并写入dgv_读取PDF中的表格写入EXCEL?30行代码搞定

办公自动化系列1现在,各类数据分析的书籍,都可以在网上找到PDF版本;同时,百度文库、各类数据统计文库、行业研究等众多论文报告,是通过PDF的形式去展示输出的;但是,令人都头疼的是,各…

英媒:人工智能终于接近人类智能了吗?

文章来源:金融时报作者:John Thornhill图片来源:网络编辑:江上波摘要:GPT-3被誉为人工智能领域的重大突破,有人认为它甚至显示出初步意识迹象,另一些人则指出GPT-3存在可笑的缺陷。它可以大量炮…

大创中期报告怎么写_课题研究中期报告怎么写?这篇范文很说的很详细

中期报告一般要求1.课题简介:课题由来、课题界定、研究目标、课题研究内容。2.研究情况:按时间顺序或内容板块有条理地说明研究工作的开展情况;有详有略、有主有次地陈述研究过程中做了什么、怎么做的。3.阶段成果:客观地阐明本课…

vba九九乘法表代码_VBA代码模块化--数据透视表

本周工作中,用到了数据透视表的操作,这里汇总一下,学习途径来自网络,学习成果我也乐于分享一二~,代码整理为模块,供大家举一反三,可以套用。① 创建数据透视表,及基本设置先展示数据…

IoT 、5G与边缘计算将会擦出怎样的火花?

来源:半导体行业观察边缘计算是数字世界中最令人兴奋的新概念之一。利用占用空间很少的微型数据中心网络,边缘计算使系统能够实时收集并分析重要数据,而不会增加现有基础设施的负担。在物联网系统中,通常以端到端的方式&#xff0…