新算力下的2019 AI

640?wx_fmt=jpeg

来源:乐晴智库精选


▌AI步入下半场


IT每十年一阶段形成六大阶段

每一轮科技革命都会带来新的赢家

640?wx_fmt=jpeg


基础设施—通用平台—应用层的发展路径


每一轮科技革命均印证基础设施先行的发展路径

基础设施与通用平台易形成寡头垄断

应用层的发展愈来愈依托于生态

640?wx_fmt=png


云计算厂商的资本开支规律


基础设施的高投入带来云收入的高增长,反之未必成立

17-18年为此轮基础设施投入的高峰

2020年,随着5G的大规模应用有望带来又一次的AIIaaS的军备竞赛


640?wx_fmt=png


AI基础设施处于爆发前夜


AMD7nmGPU面世加速AIaaS普及。AMD7nmGPU打破NVIDIA垄断,动辄上万的AIGPU有望降价。

传统服务器无法满足日益增长的AI算力需要。


640?wx_fmt=png


互联网巨头开始争夺下一代通用平台


云、边、端统一管理平台成为新一代企业上云关键。华为AI全栈解决方案,分层API和预集成方案,以期实现任何场景性价比的最优化。


微软Kubernetes开源架构,将云边端操作系统打通。阿里云云边端一体化计算平台,设备端:提供物联网操作系统AliOSThings;边缘端:IoT边缘计算产品LinkEdge。


640?wx_fmt=png


行业Know-How成为AI场景核心壁垒


各细分行业积累要求不同,行业属性强。金融、医疗、政务等均有各自独特行业属性,龙头普遍积累时间长护城河深。


BAT加速入股布局B端。今年以来,BAT加速入股抢占AI场景入口。


▌三大因素助力AI算力爆发


传统服务器难以满足AI算力需求


摩尔定律失效,CPU性能提升遭遇瓶颈。Intel宣布正式停用“Tick-Tock”处理器研发模式,未来研发周期将从两年周期向三年期转变。单颗CPU性能的提升在放缓。


传统服务器难以满足并行算法需求。服务器CPU出货量增长停滞。


AI芯片步入成长期


640?wx_fmt=png


7nm制程的突破有望带来AIGPU大规模商用


AMD7nmAIGPU面世,功耗比再次提升。


同等功耗下,新核心性能提升超过25%,同等频率下,功耗降低50%。


拥有世界最快的FP64/FP32PCI-E浮点性能,可进行机器学习训练和推理、硬件虚拟化和端到端的ECC纠错保护。


640?wx_fmt=png


FPGA云端加速布局


FPGA的优势主要体现在拥有更高的每瓦性能、非规整数据计算更高的性能、更高的硬件加速性能、更低的设备互联延迟。


微软基于FPGA的ProjectBrainwave云端单个图像只需要在1.8毫秒内就能处理,超过了现存的所有云服务。


阿里FPGA云服务器平台FaaS主要面向人工智能、半导体设计、基因计算、视频图像处理、数据分析决策等场景。


640?wx_fmt=png


ASIC芯片:华为与寒武纪成为主导


华为AI全栈解决方案进军AI芯片。


2018年10月,华为正式发布两颗AI芯片,分别为华为昇腾910和昇腾310。


两款芯片都采用达芬奇架构,其中华为昇腾910的单芯片计算密度最大,比目前最强的NVIDIAV100的125T还要高上一倍,预计在明年第二季度正式推出;而昇腾310则是昇腾的mini系列,主打终端低功耗AI场景,具有极致高效计算低功耗AISoC,目前已经量产。


据介绍,2019年昇腾还有3个系列,将用于智能手机、智能穿戴、智能手表等。”


寒武纪IP授权+芯片出售,与华为错位竞争。Dainnaoyu为全球首个深度学习指令集。


开源AI软件带动AIaaS需求


越来越多的企业选择AI开源平台及软件。TensorFlow、Caffe、CNTK等AI开源平台及诸如Google、Facebook、Microsoft和BAT等采用越来越多的AI算法。


到2022年,一半以上的AI服务器收入有望来自于AI开源软件。根据IDC的统计,AI服务器中来自于AI开源软件的比例将由2017年的38.6%上升到53.8%。


640?wx_fmt=jpeg


定制化:互联网巨头AI服务器个性化定制需求增强


浪潮信息:面向不同下游客户与行业提供定制化AI服务器解决方案


•通过与下游客户合作为客户提供定制化AI服务器解决方案,2017年9月,浪潮与百度联合发布ABC一体机;2018年4月与科大讯飞联合发布“AIBooster”方案,提供面向语音识别、智能翻译的训练方案。


•面向多行业提供定制化AI解决方案,目前包括智能视频分析IVA、医疗影像、电力设备巡检、金融汇率预测、语音识别等多行业人工智能解决方案。


640?wx_fmt=png


下一代算力:量子计算


国内外科技企业均已进军量子计算领域,国内阿里起步较早,百度与腾讯尚处于前期阶段。


谷歌2018年3月推出了拥有世界第一72量子比特的量子芯片Bristlecone;


阿里于2018年5月研制出世界最强的量子电路模拟器“太章”并模拟了81比特的随机量子电路,预计两至三年内推出量子芯片;


华为于2018年10月发布了量子计算模拟器HiQ云服务平台,包含量子计算模拟云服务和量子编程框架,模拟了全振幅42量子比特,单振幅81量子比特的量子计算。


640?wx_fmt=png


AI与云产生交集,AIaaS刺激更多产业机会


容器是一种新兴的轻量架构方案,能够高效利用系统资源(相同的硬件可以创建的容器数量是虚拟机的4-6倍)。


虚拟机管理程序对整个设备进行抽象处理,通常对系统要求很高,而容器只是对操作系统内核进行抽象处理,使用共享的操作系统,高效、成本低、可快速按需扩容、简化部署管理。


容器非常有潜力替换虚拟机成为云计算的基础架构,并成为主流的软件应用承载模式。

640?wx_fmt=png


AI算法日趋成熟


语音识别、虚拟现实与机器视觉已从导入期进入成长期。

640?wx_fmt=jpeg


算力的发展为算法实现创造条件


深度学习的大规模实现需要算法的支持。


互联网与移动网同样带来大量的训练数据。


语音识别与计算机视觉开始商用


标准化的数据集丰富。语音与图像数据较易标签化。15年图像识别准确率变已超过人类。


CNN、RNN等神经网络基础算法成熟。根据Imagenet等测试结果,语音识别与机器识别准确率均已在90%以上。


640?wx_fmt=png


语义识别获突破性进展


自然语言处理(NLP)为语义识别的主要基础算法。


简单来说,就是用计算机来处理、理解以及运用人类语言(如中文、英文等),属于人工智能的一个分支,又常被称为计算语言学。


深度学习与NLP的结合加速语义识别突破。


语义识别需要完成5个阶段:分类、匹配、翻译、结构化预测、序贯决策过程。目前深度学习有助于解决前四个任务,并已经成为解决这些问题的当前最佳技术。


Google宣布开启NLP新时代


Google宣布BERT模型开启NLP新时代。


BERT是一种预训练语言表示的新方法,机器阅读理解较高级水平测试SQuAD1.1中表现出惊人的成绩:全部两个衡量指标上全面超越人类。


模型的地位类似于ResNet在图像识别的地位,将成为NLP基础算法。


640?wx_fmt=png


无人驾驶算法不断成熟


智能驾驶尝试步入L4阶段。Tesla与百度算法不断迭代,BATJ车载OS不断推进,园区公交开始商用。


▌安防、医疗与金融有望率先应用


语音识别:AI音箱风靡全球


语音交互打造智能家居。根据Canalys的统计2018年第二季度,全球智能音箱出货量总计达到了1680万台,相比去年同期的580万台增长了187%。


海外Google与Amazon,国内阿里、小米与讯飞成为代表。


640?wx_fmt=png


机器视觉的直接应用:安防与医疗AI


“云边结合”前置智能算法,以边缘计算替代后端智能NVR实现特征提取,人员检索功能,将成为安防智能化主体。


海康以“视觉大数据”构建AICloud平台。18年4月,海康宣布采用云边融合独特架构,基于“萤石+行业+平台”战略,在其安全生活业。务平台萤石云平台上提供服务。


医疗AI:医疗影像诊断率先突破


多层神经网络算法的成熟


多层神经网络构建的深度学习模型(DNN)是2017年发展最快的一项技术。DNN的可解释性得到突破:将每一个神经元都与一个topic进行关联,于是整个网络变得具有可解释性。


标准化影像数据的大量积累。医疗信息化红利开始兑现。


医疗影像公司解决方案的不断成熟。代表公司:卫宁健康、万里云、和仁科技等


640?wx_fmt=png


医疗AI:诊疗市场与IT投入进入爆发期


云平台方式提供影像拍摄和辅助诊断。以公有云或私有云的方式部署,有效提升医生诊断效率。


根据IDC统计,影像AI至少提高数倍工作效率,每年可为医院节约几百万元的费用或者增加百万甚至千万元的收入。


由影像AI向全医疗领域AI横向拓展。根据IDC预测,2017年医疗人工智能(AI)诊疗服务市场规模达到1.83亿元,预计到2022年将达到58.75亿元,2017至2022年的年复合增长率为100.1%。


2017年医疗人工智能(AI)的IT投入规模为1.1亿元,预计到2022年将达到16.5亿元,2017至2022年的复合增长率为71.8%


640?wx_fmt=png


工业AI:机器视觉与激光的完美结合


相关标的:宝信软件、新北洋、海康威视、汉得信息、Keyence、Cognex、IsraVision


重新定义工业,有望实现对检测人员的大量替代


检测数据的积累分析可进一步提升良率


640?wx_fmt=png


金融AI:智能风控与影像采集


AI策略从动量/舆情走向风控/数据库,开始反转


金融反诈骗。分析用户登陆行为、用户图关系、弱可信关系等


影像采集。金融以身份认证为主


自然语言处理:法律成为下一个风口


司法AI分析技术日趋成熟。目前的NLP算法已经把法律领域从为大的文档制作预测编码系统,转移到为诉讼提供分析。硅谷律师事务所已使用LexMachinaAI算法分析收集竞争情报,从而做出更好的决策、资源调配和调整客户计费。


未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学交叉研究机构。


未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。


  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”


640?wx_fmt=jpeg

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/493072.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

leetcode动态规划(python与c++)

1 . 斐波那契数 class Solution:def fib(self, n: int) -> int:# if n0:# return 0# elif n1:# return 1# else:# return self.fib(n-1)self.fib(n-2)a 0b 1for i in range(n):a,b b,abreturn a class Solution { public:int fib(int n) {int a 0, b 1;fo…

互联网50年类脑架构技术演化图

作者:刘锋 计算机博士 互联网进化论作者摘要:不断的有著名科学家或企业家提出互联网已死,将被新技术取代,最近绘制了一幅互联网50年的技术演化图,试图说明互联网从1969年四台计算机的网状结构发展成2019类脑结构的过程…

小孔成像中四个坐标系转换

一.小孔成像基础知识: 1.1透镜成像原理 如图所示: 其中 u 为物距, f 为焦距,v 为相距。三者满足关系式: 相机的镜头是一组透镜,当平行于主光轴的光线穿过透镜时,会聚到一点上,这个点叫做焦点&…

这10项机器人领域的核心技术,你了解多少

来源:机器人创新生态NO 1.人机对话智能交互技术这项技术能让人类做到真正与机器智能的对话交流,机器人不仅能理解用户的问题并给出精准答案,还能在信息不全的情况下主动引导完成会话。当前这一块做得比较成熟的谷歌与Facebook。NO…

leetcode哈希表(python与c++)

1.整数转罗马数字 python: class Solution:def intToRoman(self, num: int) -> str:dict_ {1000:M, 900:CM, 500:D, 400:CD, 100:C, 90:XC, 50:L, 40:XL, 10:X, 9:IX, 5:V, 4:IV, 1:I}res for key in dict_:count num // keyres count * dict_[key]num % keyreturn res…

Yann LeCun、吴恩达的新年AI预测:强调“少样本学习”,AI恐慌在减少

来源:大数据文摘新年伊始,海外媒体VentureBeat电话访谈了包括吴恩达、Yann Lecun在内的四位人工智能领域领军者,询问了他们对于过去一年人工智能领域发展的看法,以及他们认为新一年人工智能和机器学习可能产生的突破。不约而同&am…

1.C#WinForm基础制作简单计算器

利用c#语言编写简单计算器: 核心知识点: MessageBox.Show(Convert.ToString(comboBox1.SelectedIndex));//下拉序号MessageBox.Show(Convert.ToString(comboBox1.SelectedItem));//下拉内容MessageBox.Show(Convert.ToString(comboBox1.SelectedText));/…

seaborn的一些画图

一.数据查看 数据集地址,用红白酒为例. import pandas as pd import matplotlib.pyplot as plt from mpl_toolkits.mplot3d import Axes3D import matplotlib as mpl import numpy as np import seaborn as snswhite_wine pd.read_csv(winequality-white.csv, se…

后摩尔定律时代的芯片新选择!

来源:gizmodo摘要:很长一段时间以来,摩尔定律和它的最终结局一直就像房间里的大象,不容忽视。英特尔联合创始人戈登摩尔在1965年的一篇论文中预测,芯片中的晶体管数量每年将翻一番。更多的晶体管意味着更快的速度&…

MSE和Cross-entropy梯度更新比较

一.平方损失(MSE) Loss函数: 梯度: 由于x,y是已知的,故可以忽略掉 梯度更新: sigmoid函数: 可以看出 导数在z取大部分值,都是很小的,这样会使梯度更新慢. y为1或0是,当a1,w的梯度为0,a0,w的梯度为0,故就…

麦卡锡问答:什么是人工智能?

来源:科学网一、基本问题问:什么是人工智能?答:人工智能是研制智能机器尤其是智能计算机程序的科学与工程。它与使用计算机理解人类智能类似,但人工智能并不将它自己局限于生物意义上的方法。问:是的&#…

操作系统--多进程管理CPU

一.cpu管理直观做法 最只管想法cpu循环取址执行,所以只需要设好pc初值即可 存在问题:io会占用时间长,导致cpu利用率低. 所以需要不停切换,执行多个程序,也就是并发. 但是在切换的时候,除了记录返回地址&a…

胶囊网络、边缘计算:2018年13个最新人工智能发展趋势

来源:亿欧智库摘要: 美国知名研究机构CB Insights的报告《2018年必看的人工智能热门趋势》,对AI行业发展现状进行了深入研究剖析,并给出了2018年AI领域最值得关注的13个前沿发展趋势。趋势一:新蓝领的工作——机器人保…

清空输入缓冲区fflush()

转自&#xff1a;http://blog.csdn.net/21aspnet/article/details/174326 scanf( )函数可以接收输入的换行符&#xff0c;\n,(asci为10)&#xff0c;利用函数fflush(stdin),可以清空输入内存缓冲区。 // function name fflush // 清空一个流 ,2014--03--29 #include <std…

操作系统--用户级线程与内核级线程

一.多进程是操作系统基本图像 进程都是在内核进行 二.用户级线程 2.1线程引入 可以切指令不切表&#xff0c;也就是资源不动&#xff0c;指令执行分开&#xff0c;更加轻量化&#xff0c;从而提高效率&#xff0c;保留并发优点&#xff0c;避免进程切换代价&#xff0c;也就…

“新视野”和“最远点”的约会

NASA 设想的2014 MU69 太空岩石 来源&#xff1a;中国科学报当新年香槟将陌生人聚在一起时&#xff0c;一种不同的聚会正在外太阳系进行。在距地球近65亿公里的地方&#xff0c;美国宇航局&#xff08;NASA&#xff09;“新视野”号探测器创下了寻访迄今最遥远世界的纪录。这场…

C语言里的写文件

转载自&#xff1a;http://blog.csdn.net/shuimuzhiyuan/article/details/6908335 部分转载自&#xff1a;http://blog.csdn.net/lijun5635/article/details/13095883 一 、fopen()函数中第一个形式参数表示文件名, 可以包含路径和文件名两部分。如: "B:TEST.DAT"…

操作系统--内核级线程实现

五段论 &#xff1a; 进入内核靠的是中断&#xff0c;fork是创建系统进程调用&#xff0c;进程由资源&#xff0b;执行序列组成&#xff0c;而创建执行序列其实就是创建线程&#xff0e; TSS:任务结构段 参考&#xff1a; 操作系统_哈尔滨工业大学_中国大学MOOC(慕课)…

一文看尽2018全年计算机视觉大突破

来源&#xff1a;极市平台摘要&#xff1a;计算机视觉领域同样精彩纷呈&#xff0c;与四年前相比GAN生成的假脸逼真到让人不敢相信&#xff1b;新工具、新框架的出现&#xff0c;也让这个领域的明天特别让人期待……2018&#xff0c;仍是AI领域激动人心的一年。计算机视觉领域同…

leetcode BFS(python+c++)

1.最小基因变化 思路&#xff1a;bfs搜索回溯 python: class Solution:def minMutation(self, start: str, end: str, bank: List[str]) -> int:library [A,C, G,T]queue [start]num 0vis set()while queue:size len(queue)for i in range(size):cur queue.pop(0)i…