边缘AI是内存技术发展的催化剂

来源:北京物联网智能技术应用协会

  人工智能的崛起,对内存系统提出了一些新要求。今天的内存技术能够满足AI时代下的新应用吗?从长远来看,新兴内存技术对边缘 AI有什么前景?

  首先要意识到的是“边缘AI”应用没有特定标准;“边缘”在其最广泛的解释中涵盖了云以外所有支持人工智能的电子系统。这可能包括“基于端(Near edge)”,通常涵盖企业数据中心和本地服务器。

  自动驾驶计算机视觉、制造网关设备执行AI推理、检查生产线上产品的缺陷、公用电线杆上的5G“边缘盒”、为交通管理等智能城市应用分析视频流以及5G基础设施在复杂但高效的波束成形算法的边缘使用人工智能这些都是最典型的应用。

  内存技术的进步反映了数据爆炸和越来越需要将处理移到更接近数据的地方。内存和存储技术处于并行的轨道上,更多的工作负载在内存中处理。

  在“基于5G MEC(Far edge)”上,人工智能被支持在手机(比如Snapchat过滤器)、设备的语音控制和工厂物联网传感器节点上,在将结果发送到另一个网关设备之前进行传感器融合。

  内存在边缘AI系统中的作用指的是存储神经网络权重、模型代码、输入数据和中间激活——对于大多数AI应用来说是一样的。为了保持效率,必须加快工作负载以最大限度地提高AI算力,因此对容量和带宽的需求通常很高。然而,具体应用的要求是多种多样的,可能包括尺寸、功耗、低电压运行、可靠性、热/冷却考虑和成本。


边缘数据中心

  边缘数据中心是一个关键的边缘市场。用例包括医疗成像、研究金融算法,在这些领域,由于隐私问题,我们无法将数据上传到云上。自动驾驶亦是如此,因为等待时间不能过长。

  这些系统使用的内存与其他应用程序中的服务器相同。

  智能模块化技术的解决方案架构师Pekon Gupta表示:“在人工智能算法正在开发的训练应用中,使用低延迟DRAM用于快速的字节级作为主要内存是很重要的, 大数据集需要高容量RDIMM或LRDIMM。NVDIMM是系统加速所需要-我们使用它们来写缓存,而不是较慢的SSD。

  将计算节点定位到接近终端用户的位置是电信运营商所采用的方法。

  Gupta:“我们看到了一种趋势,那就是让这些电信公司边缘服务器更有能力运行复杂的算法。”因此,“服务提供商使用RDIMM、LRDIMM等设备和NVDIMM等高可用持久内存,为这些边缘服务器添加更多内存和处理能力。”

  Gupta认为英特尔的3D-Xpoint非易失性内存Optane,它的性能介于DRAM和Flash之间,是服务器AI应用的一个很好的解决方案。

  “(傲腾)Optane DIMM和NVDIMM都被用作人工智能加速器,” NVDIMM提供了非常低的延迟分层,缓存,写入缓冲和元数据存储能力的AI应用程序加速。傲腾数据中心DIMM可用于内存中的数据库加速,其中数百GB到TB的持久性内存与DRAM结合使用。尽管它们都是AI/ML加速应用程序的持久内存解决方案,但它们有不同且独立的用例。”

  英特尔傲腾的产品营销总监Kristie Mann介绍, 傲腾正在尝试获得在服务器AI领域的应用。

  Mann:“我们的客户现在已经在使用傲腾persistent memory来为他们的人工智能应用提供能量。”“它们成功推动了电子商务、视频推荐引擎和实时财务分析应用。由于可用容量的增加,我们看到了向内存应用的转变。”

  自2012年以来,英特尔便一直在开发这项技术——也就是如今我们所熟知的英特尔傲腾傲腾技术。傲腾技术在多个方面实现了技术进步,并最终成为了一种“非易失性内存”,并实现了几乎与易失性工作内存(动态随机存取存储器DRAM)一样快的速度,且同时能在断电时保留数据。相比之下,DRAM只能在通电状态下保持“正常运转”。

  DRAM的高价格正使得傲腾成为一个更有吸引力的替代品。一台服务器配有两个Intel Xeon可伸缩处理器,加上傲腾持久内存,可以为需要数据的应用程序提供高达6TB的内存。尽管傲腾在速度上无法完全与DRAM匹敌,但它具有“持久性”的优势。也就是说,傲腾在无需通电的情况下即可保持数据的存续状态。持久性一般与磁性相关,硬盘驱动器和磁带利用磁场,将位置设置为1或0。

  Mann:“DRAM仍是最受欢迎的,但从成本和容量的角度来看,它有其局限性,”“由于成本、容量和性能优势,如Optane persistent memory和Optane SSD这些新内存和存储技术正在占领DRAM的市场。”Optane SSD是特别强大的缓存HDD和NAND SSD数据,可以持续提供人工智能应用数据。

  她补充说,与目前还不完全成熟或可扩展的其他新兴存储器相比,Optane也有一定优势。

  英特尔Optane 200系列模块,Optane现在已经被用来为人工智能应用提供持续动力。

GPU提速

  对于高端的边缘数据中心和边缘服务器应用程序,像GPU这样的人工智能计算加速器正在获得市场青睐。和DRAM一样,这里的内存包括GDDR和DDR SDRAM,提供高带宽GPU,HBM,以及一种全新的堆叠技术,它将多个内存模放在与GPU本身的封装中。

  两者都是为人工智能应用程序所需的极高的内存带宽而设计。

  HBM2E和GDDR6助力新一轮人工智能应用浪潮

  鉴于AI/ML的需求分流的特性,内存的选择取决于应用:训练还是推理。HBM2E和GDDR6这两种高带宽内存,都可以起到至关重要的作用。

  相比GDDR,HBM技术的显存在带宽、性能及能效上遥遥领先, JEDEC近期推出了HBM2e规范,三星抢先推出容量可达96GB的HBM2e显存。根据规范,HBM2存储标准JESD235C将针脚带宽提高到3.2Gbps,之前的两版HBMe分别是2Gbps、2.4Gbps速率,相比之下HBM2e速率提升25%到60%。

  对于要求最高的AI模型训练,HBM2E提供3.6 Gbps和460 GB/s的内存带宽(两个HBM2E堆栈提供接近1 TB/s的内存带宽)。这是可用的性能最高的内存之一,功耗最低。相比GDDR显存,HBM技术的显存在带宽、性能及能效上遥遥领先,前不久JEDEC又推出了HBM2e规范,三星抢先推出容量可达96GB的HBM2e显存。GPU领导者Nvidia在其所有数据中心产品中都使用了HBM。

  Rambus IP核产品营销高级总监Frank Ferro表示,GDDR6也被用于AI推理。GDDR6能够满足边缘 AI推理系统在速度、成本和功率方面的要求。例如,GDDR6可以提供18 Gbps和72 GB/s的带宽。拥有4个GDDR6 DRAM可以提供接近300GB/s的内存带宽。此外,GDDR6亦可用于ADAS应用。

  Nvidia将GDDR6与LPDDR进行比较,对于Jetson AGX Xavier和Jetson Nano等大多数非数据中心边缘解决方案的方法, LPDDR更适用于边缘或端点的低成本AI推断。

  “LPDDR的带宽对于LPDDR4被限制在4.2 Gbps,对于LPDDR5被限制在6.4 Gbps。”“随着内存带宽需求的增加,我们将看到越来越多的设计使用GDDR6。这种内存带宽的差距有助于推动GDDR6的需求。”

  尽管这是为了配合GPU而设计,但其他处理加速器可以利用GDDR的带宽。Ferro着重介绍了Achronix Speedster7t,这是一款基于FPGA的人工智能加速器,用于推理和一些低端训练。

  Ferro:“在边缘人工智能应用中,HBM和GDDR内存都有空间,”“HBM”将继续在边缘应用中使用。HBM虽然拥有所有优势,但由于3D技术和2.5D制造,成本仍然很高。考虑到这一点,GDDR6是成本和性能之间的一个很好的平衡,特别是对于网络中的人工智能推理。”

  总的来说,训练和推理有其独特的应用需求,可以通过定制内存解决方案来支持。HBM2E是AI训练的理想选择,GDDR6是AI推理的理想选择。设计师可以通过与Rambus合作来克服这些架构中固有的设计挑战,从而实现这些高性能内存的长处。

  HBM则用于Graphcore IPU等高性能数据中心AI专用集成电路中。虽然它的性能一流,但在某些应用程序中,它的价格可能过高。

  但问题是,处理器算力提高了10倍,内存怎样提高10倍的性能呢?如果用传统的DDR4、DDR5、HBM、HBM1、HBM2、HBM3内存等,基本上每代只能约有30%、40%的提升,这是远远不够的。

  高通是使用DRAM来解决高数据中心内存方案的公司之一。其Cloud AI 100的目标是在边缘数据中心、5G“边缘盒”、ADAS/自动驾驶和5G基础设施方面加速AI推理。

  Cloud AI 100,采用7nm工艺,性能比目前业界最先进的 AI 推理解决方案高出 10 倍以上。Cloud AI 100 集成了一系列开发工具,包括编译器、调试器、分析器、监视器、服务、芯片调试器和数字转换器。

  高通计算和边缘云部门总经理Keith Kressin表示:“使用标准DRAM而不是HBM之类的东西对我们来说很重要,因为我们希望降低材料成本。”“我们的客户想要做所有的芯片,还要交叉卡。但他们都希望保持合理的成本,而不是购买HBM,甚至更新的内存。”

  “在训练中,”你会有跨越(多个芯片)的大型模型,但为了推理,很多模型都更加本地化。”

Far Edge[1]

  在数据中心之外,边缘AI系统通常侧重于推理,但也有一些例外,比如联邦学习和其他增量式训练技术。

  一些对功率敏感的应用程序人工智能加速器使用内存来进行人工智能处理。推理是基于多维矩阵乘法的,它有助于使用用于执行计算的存储单元阵列的模拟计算技术。利用这种技术,Syntiant的设备被设计为消费类电子产品的语音控制,而Gyrfalcon的设备被设计成智能手机,用于处理相机效果的推断。

  除了内存中的计算设备,专用集成电路在特定的边缘领域也很流行,特别是在低功耗和超低功耗系统。专用集成电路的内存系统使用几种内存类型的组合。分布式本地SRAM是最快最节能的,但不是非常节能。单片SRAM在芯片上运行效率更高,但会带来性能瓶颈。芯片外DRAM更便宜,但耗电更大。

  简单来讲,SRAM比DRAM更快,但也贵很多。SRAM用来作为高速缓存存储器,既可以在CPU上,也可以不在CPU上。DRAM用来作为主存以及图形系统的帧缓冲区。一个桌面系统的SRAM不会超过几兆字节,但是DRAM却有几百兆字节或几千兆字节。 只要有电,SRAM就是持续的,与DRAM不同,它不需要持续刷新。SRAM的存取比DRAM快。SRAM对诸如光和电噪音这样的干扰不敏感,代价是SRAM单元比DRAM单元使用更多的晶体管,因而没那么密集,而且更贵,功耗更大。

  Flex Logix首席执行官Geoff Tate表示,要在SRAM和芯片外DRAM之间找到合适的平衡,需要一系列的性能模拟。其目的是最大限度地提高每美元的推理吞吐量——模具尺寸、包装成本和使用的DRAM数量的函数。

  Geoff Tate:“最佳点是单个x32 LPDDR4 DRAM;4K MAC(最高7.5台,933MHz);大约10MB的SRAM,”“SRAM速度很快,但与DRAM相比价格昂贵。我们使用台积电的16nm制程技术,1MB的SRAM大约需要1.1mm2。“我们的InferX X1只有54mm2,得益于我们的架构,DRAM访问在很大程度上与计算重叠所以没有性能组成。”对于大型模型来说,拥有一个DRAM是一个合适的权衡,至少对我们的架构来说是这样。

  Flex Logix芯片将用于实时操作的边缘 AI推理应用,包括分析低延迟的流媒体视频、ADAS系统、安全镜头分析、医疗成像和质量保证/检查应用。

  在这些应用程序中,什么样的DRAM会和InferX X1一起出现?

  “我们认为LPDDR将最受欢迎,一个DRAM提供超过10GB/秒的带宽……但仍有足够的比特存储权重/中间激活,”“任何其他DRAM都需要更多的芯片和接口,需要购买更多未使用的比特。”

新兴内存技术能否崛起?

  他补充说:“使用任何新兴内存时,晶圆成本都大幅上升,而SRAM是‘免费’的,除了硅区域。”“随着经济形势的变化,临界点也可能发生变化,但它将在更远处发生。”

  其他内存类型仍然为人工智能应用提供了未来的可能性。

  磁阻存储器(MRAM)通过施加的电压控制磁体的方向来存储每一位数据。如果电压低于反转位所需的电压,则只有一个位将反转的可能。由于MRAM的随机性是不需要的,因此MRAM是用更高的电压驱动的,以防止其发生。不过,一些人工智能应用程序可以利用这种固有的随机性(可以认为是随机选择或生成数据的过程)。

  通过实验我们已经将MRAM的随机能力应用到Gyrfalcon的设备上,这项技术可以将所有重量和激活的精度降低到1位。这是用来大大减少计算和功率要求的远边缘应用。可能会在精确度上做出取舍,这取决于网络如何被重新训练。一般来说,尽管精度降低了,神经网络仍能可靠地工作。

  Spin Memory的产品副总裁Andy Walker:“二值化神经网络(BNN)[2]的独特之处在于,即使数字是-1或+1的确定性降低了,它们也能可靠地工作。”“我们发现这样的BNN仍然可以在高精确度下运行,因为这种确定性是通过引入被错误写入的内存位的‘误码率’而降低的。”

  在低电压水平下,MRAM可以自然地以可控的方式引入误码率,在进一步降低功率要求的同时保持准确性。关键是在最低的电压和最短的时间内确定最佳的准确度这意味着最高的能源效率。

  虽然这项技术也适用于更高精度的神经网络,但它特别适用于BNN,因为MRAM细胞有两种状态,与BNN中的二进制状态相匹配。

  Walker表示,在边缘使用MRAM是另一个潜在的应用。

  “对于边缘 AI来说,MRAM能够在不需要高性能精度的应用中在较低的电压下运行,但是提高能源效率和内存耐久性是非常重要的。”此外,MRAM固有的非易变性允许在不通电的情况下进行数据保存。

  “其中,这种新兴存储器可以同时作为嵌入式闪存和SRAM的替换,节省了芯片上的面积,并避免了SRAM固有的静态功耗。”

  虽然Spin Memory的MRAM即将被商用,但BNN的具体实现将在基本MRAM单元的变体上表现良好。因此,目前还处于研究阶段。

神经拟态ReRAM

  边缘 AI应用程序的另一个新兴内存是可变电阻式随机存取存储器ReRAM。ReRAM能够仿真大脑为人工智能(AI)应用创建神经网络,因此激发了人们对新兴内存的浓厚兴趣。实际上,人们讨论神经图(neural map)已经很长时间了,但是还没人真正实现它并将其投入生产。

  米兰理工大学最近使用Weebit Nano的氧化硅(SiOx) ReRAM技术进行的研究显示了神经形态计算的前景。ReRAM为神经网络硬件增加了一个维度的可塑性;也就是说,它可以随着条件的变化而进化——这在神经拟态计算中是一种关键的特性。

  目前的神经网络无法在不忘记它们已经训练过的任务的情况下学习,而大脑却可以很容易做到这一点。用人工智能的术语来说,这是“无监督学习”,算法在没有标签的数据集上进行推理,在数据中寻找自己的模式。最终的结果可能是重新启用的边缘人工智能系统,它们可以就地学习新的任务,并适应周围的环境。

  总的来说,内存制造商正在引入能够提供人工智能应用所需的速度和带宽的技术。各种各样的存储器,无论是在同一芯片上的AI计算,在同一封装里还是在单独的模块,可用于众多边缘AI应用。

  虽然边缘 AI的内存系统的确切性质取决于应用程序,但GDDR、HBM和Optane在数据中心很受欢迎,而LPDDR在端点应用程序上与片上SRAM将会继续竞争。

  “新兴存数技术”将其新颖的特性用于研究,旨在推动神经网络超越目前硬件的能力,这些都有助于实现未来节能、ML系统的发展。

  延伸阅读——服务器UDIMM、LRDIMM、RDIMM三种内存区别

  在服务器领域,目前使用的内存条类型(DIMM)主要有三种:UDIMM、RDIMM和LRDIMM。

UDIMM

  UDIMM:全称Unbuffered DIMM,即无缓冲双列直插内存模块,指地址和控制信号不经缓冲器,无需做任何时序调整,直接到达DIMM上的DRAM芯片。UDIMM由于在CPU和内存之间没有任何缓存,因此同频率下延迟较小。

  数据从CPU传到每个内存颗粒时,UDIMM需保证CPU到每个内存颗粒之间的传输距离相等,这样并行传输才有效,而这需要较高的制造工艺,因此UDIMM在容量和频率上都较低。

服务器内存UDIMM与RDIMM的差别

RDIMM

  RDIMM:全称Registered DIMM,带寄存器的双列直插内存模块。RDIMM在内存条上加了一个寄存器进行传输,其位于CPU和内存颗粒之间,既减少了并行传输的距离,又保证并行传输的有效性。由于寄存器效率很高,因此相比UDIMM,RDIMM的容量和频率更容易提高。

LRDIMM

  LRDIMM:全称Load Reduced DIMM,低负载双列直插内存模块。相比RDIMM,LRDIMM并未使用复杂寄存器,只是简单缓冲,缓冲降低了下层主板上的电力负载,但对内存性能几乎无影响。

  此外,LRDIMM内存将RDIMM内存上的Register芯片改为iMB(isolation Memory Buffer)内存隔离缓冲芯片,直接好处就是降低了内存总线负载,进一步提升内存支持容量。

服务器内存UDIMM与RDIMM的差别

  [1] 不同行业推出的边缘计算在与用户的位置距离上也有区别,根据距离用户的远近,Gartner将边缘计算分为基于端(Near Edge)和基于5G MEC(Far Edge)两种。电信运营商需要在移动基站附近接入无线网络。从电信核心网角度看,基站在最远位置,所以无线接入网络(RAN)这层称作远边缘(Far Edge)。两种模式采用不同的开源框架,有着不同的底层实现架构,从商业视角考虑,Far Edge能够实现更深刻的边缘赋能,更具发展潜力。

  [2] 二值化神经网络,将权重和激活函数转化为二值,比如+1或者-1。显著的区别就是在全精度神经网络中,输入和权重是点乘(dot product)操作,而二值神经网络中用按位异或非(bitwise XNOR)来实现的。

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/486018.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

金叉成功率_一个非常强烈的买卖信号:三金叉见顶,三死叉见底,短短10字,但是成功率却远超“金叉买,死叉卖”...

(本文由公众号越声投顾(yslcw927))整理,仅供参考,不构成操作建议。如自行操作,注意仓位控制和风险自负。)为什么做交易的人95%是要被市场打败出局?一、炒股最困难的不是选股,也不是买卖,而是等待;人生最困难的不是努力…

《中国基础研究竞争力报告2020》发布,6图表速览报告核心结论

来源: 科学出版社持续跟踪先进国家基础研究发展态势,准确研判我国基础研究竞争力,科学筹划基础研究发展,对于打造科技核心竞争力、构筑先发优势、蓄积长远发展原动力,具有重要战略意义。为了支撑科技创新,中…

「九章」刷屏的背后:万字长文解析,量子计算机和电子计算机各有何优劣?

来源:机器学习研究组订阅号近日,中科大校友、UC伯克利在读博士、知乎用户SIY.Z 在一篇近两万字的长文中,详细分析了“量子计算机和传统电子计算机在算法方面的优劣势”。以下是原文内容:这是一篇我很早以前就想写的文章。我的目的是给稍有数学…

关于计算机的网络作文,关于网络世界的作文

关于网络世界的作文在学习、工作乃至生活中,大家对作文都不陌生吧,根据写作命题的特点,作文可以分为命题作文和非命题作文。那么你有了解过作文吗?以下是小编精心整理的关于网络世界的作文,欢迎阅读,希望大…

xml--Schema约束

<?xml version"1.0" encoding"UTF-8"?> <!-- xmlns: xml namespace&#xff1a;名称空间/ 命名空间 targeNamespace&#xff1a;目标名称空间&#xff0c;下面定义的那些元素都与这个名称空间绑定上 elementFormDefault&#xff1a; 元素的格式…

被称为“第五代 AI”的神经形态计算进展到哪一步了?

来源&#xff1a;北京物联网智能技术应用协会AI可以像人脑一样运作吗&#xff1f;几十年来&#xff0c;研究人员一直在问这个问题&#xff0c;这个大家长期求索的问题引起了质疑、嘲笑、轻蔑等不同态度。但是现在&#xff0c;神经形态计算让世界变得更美好的梦想更近了一些。当…

oc 画一个圆弧_UG建模一个蜗杆的方法,纯手工建模无插件

上次我们画了一个蜗杆&#xff0c;今天就来建模一个涡轮模型&#xff0c;也是非常简单。这次还是无尺寸的随意建模&#xff0c;做出这么一个涡轮&#xff0c;来看看建模方法吧&#xff01;1 首先在XY平面上绘制一个直径100的圆&#xff0c;上下拉伸10mm2 对圆柱上下面倒斜角3mm…

Leetcode--11. 盛水最多的容器

给定 n 个非负整数 a1&#xff0c;a2&#xff0c;...&#xff0c;an&#xff0c;每个数代表坐标中的一个点 (i, ai) 。在坐标内画 n 条垂直线&#xff0c;垂直线 i 的两个端点分别为 (i, ai) 和 (i, 0)。找出其中的两条线&#xff0c;使得它们与 x 轴共同构成的容器可以容纳最多…

《城市大脑全球标准研究报告》发布会将于12月23号在北京举办

城市大脑全球标准研究组《城市大脑全球标准研究报告》发布会将于2020年12月23日下午在北京海淀区城市大脑展览厅举办&#xff0c;发布会除了报告发布&#xff0c;智能产业专家演讲&#xff0c;也将参观海淀城市大脑的发展情况。欢迎新闻媒体、科研机构、科技企业、政府部门的记…

java 实现打印条形码_条码打印软件中如何设置条形码下面的字符间距?

条形码有两部分组成&#xff0c;上面是黑白条图案&#xff0c;用于扫描设备的识别&#xff0c;下面是条形码数据&#xff0c;方便在没有扫描设备的情况下可以手动去搜索相关的信息。一般用条码打印软件制作条形码&#xff0c;下面的条形码数据间距是自动生成的&#xff0c;而在…

用跑得最慢的电脑程序,理解最高深的哥德巴赫猜想

五条规则的图灵机可视化。每列像素代表一步计算&#xff0c;步骤从左到右。黑色代表1。最右边表示图灵机的停机。&#xff08;图片来源&#xff1a;Peter Krumins/Quanta Magazine&#xff09;文章来源&#xff1a;环球科学“忙碌的河狸”这个问题的目的是为了找到运行时间最长…

Leetcode--42.接雨水

给定 n 个非负整数表示每个宽度为 1 的柱子的高度图&#xff0c;计算按此排列的柱子&#xff0c;下雨之后能接多少雨水。 上面是由数组 [0,1,0,2,1,0,1,3,2,1,2,1] 表示的高度图&#xff0c;在这种情况下&#xff0c;可以接 6 个单位的雨水&#xff08;蓝色部分表示雨水&#…

云专网和云专线的区别_传统IDC行业与云计算的区别?

1.传统IDC行业和云计算在服务类型上的区别&#xff1a;传统IDC行业主要是有两种模式&#xff1a;租用和托管租用是自己没有服务器&#xff0c;机房提供服务器、带宽、IP地址、机位、服务器维护等。这种模式是租用。托管是自己购买配置服务器&#xff0c;通过快递、物流等方式把…

计算机插件技术应用原理,计算机软件技术中插件技术的运用

计算机软件技术中插件技术的运用在我国科技水平的不断提升下,计算机软件方面的功能也在持续更新。其中插件技术作为计算机软件中实用性比较强的一项功能,一直被研究分析。下面是小编搜集整理的相关内容的论文&#xff0c;欢迎大家阅读参考。摘要&#xff1a;随着经济和科学技术…

未来30年,这20项技术将颠覆人类生活

来源&#xff1a;嵌入式资讯精选美国公布了一份长达35页的《新兴科技趋势报告》。该报告是在美国过去五年内由政府机构、咨询机构、智囊团、科研机构等发表的32份科技趋势相关研究调查报告的基础上提炼形成的。通过对近700项科技趋势的综合比对分析&#xff0c;最终明确了20项最…

攻克数据库核心技术壁垒,实现百万级QPS的高吞吐

CynosDB是腾讯云自研的新一代高性能高可用的企业级分布式云数据库。融合了传统数据库、云计算与新硬件的优势&#xff0c;100%兼容开源数据库&#xff0c;百万级QPS的高吞吐&#xff0c;不限存储&#xff0c;价格仅为商用数据库的1/10。 CynosDB设计出发点: 随着云计算2.0时代的…

CLion之C++框架篇-安装工具,基础框架的搭建(一)

CLion之C框架篇-安装工具&#xff0c;基础框架的搭建&#xff08;一&#xff09; 背景日常学习C&#xff0c;也就是看看书、在vim里写写代码。在日常项目开发中&#xff0c;也是边看书&#xff08;一是系统性理解、二是找找有什么更好的代码编写方式&#xff09;边写代码&#…

学术评论:“类脑计算完备性(Neuromorphic completeness)”概念定义中的问题

作者&#xff1a;程京德文章出处&#xff1a;程京德科学网博客链接地址&#xff1a;http://blog.sciencenet.cn/blog-2371919-1262267.html 2020年10月&#xff0c;“Nature”杂志发表了清华团队题为“A system hierarchy for brain-inspired computing”的论文 [1]&#xff0c…

你真的了解盒模型么

说到前端, 大家第一反应是不是都是vue、react、webpack等这些大大小小的框架或者工具, 但其实这些都是和js相关的, 真正的样式会被大家忽略。其实真正呈现给大家看到华丽的页面, 都是样式才让他们多了那份色彩。那么大家觉得简单的css样式, 真的简单么? 让我们一起来看下, 开启…

ios10前台收到推送_iOS 13 beta 2 推送 | iOS 13 热门疑问解答

朋友们周二早&#xff0c;今天这期分享主要是给大家解答几个 iOS 13 相关的热门问题。今天的头条推送的是 HFP 的面膜&#xff0c;靠谱产品&#xff0c;有需求的朋友可以去他们的天猫旗舰店或者小程序商场看下。是否可以直接升级 &#xff1f;今天苹果正式推送了 iOS 13 beta 2…