干货 | 加速AI发展!一文了解GPU Computing

640?wx_fmt=png

来源: 启迪之星上海

摘要:英伟达的显卡对于游戏达人来说再为熟悉不过,并逐渐融入到我们的日常生活当中。


英伟达的显卡对于游戏达人来说再为熟悉不过,并逐渐融入到我们的日常生活当中。近日,世界上第一款“光线追踪”GPU“Quadro RTX GPU”的面世,更是被英伟达创始人兼CEO黄仁勋称为“自CUDA以来,英伟达推出最重要的一块GPU”。英伟达为了这块显卡,前后打磨了十年的时间。它的出现,将颠覆现有图形渲染计算。


我们荣幸地邀请到了英伟达亚太区架构主管赵立威先生,他围绕着《GPU计算前沿技术进展及其在AI领域的应用》的话题,与20余位创业者进行了深刻交流,人工智能领域的搬砖男女都赶紧看过来吧~

 

一、GPU computing最新技术进展

 

赵立威:我非常有幸在过去的20多年间,经历了IT从起步到大热的整个发展过程。20年前,我在IBM,那时候我自己都没有一台PC机,邮件都跑在mainframe上。我有一张软盘,它相当于我的密钥,把软盘插入办公室的诸多电脑之一,我就能访问我在主机上的邮件服务。这可以说是前PC时代。


过去这些年,计算形态从PC到移动计算到云再到现在的人工智能。但事实上AI并不是这两年才开始研究,几十年前就已经开始了。那么为什么现在人工智能这么火呢?它离不开三算的发展。何为三算?即算法,算力(计算力),算据(数据)。

 

640?wx_fmt=png

图源:http://news.ikanchai.com/2017/1204/179891.shtml

 

那么这三算是怎样互相作用,然后驱动人工智能从2012年一下子发展到现在的状态呢?这里有一个小故事可以与大家分享。

 

大家可能都听说过Alex Krizhevsky,他在博士期间设计了人类历史上第一个真正意义上的深度神经网络AlexNet——一共是八个学习层,包含六千万个参数。他的导师Hinton(被称为“神经网络之父”)并不支持他将这个作为博士论文的研究方向,因为当时的计算都是基于CPU的计算方式,这样的神经网络模型训练一次就要几个月的时间;然后要手动调参,再重新训练,这样反复下来,想要得到一个靠谱的神经网络模型,大约需要几十遍;运气好的时候十几遍的训练次数,可能要花费数十年的时间。但是Alex作为一个典型的Geek并不放弃,在学习数学之余他还学习了大量与编程相关的知识,其中就包括CUDA。

 

CUDA是NVIDIA创造的一个并行计算平台和编程模型。它利用图形处理器(GPU)能力,实现计算性能的显著提高。NVIDIA是在2006年推出的CUDA,自那以后,股价从最初的7美元一路攀升到现在的260多美元。

 

Alex用CUDA重新对他的模型进行编程,然后买了两块当时非常强大的显卡GTX580,花了6天时间训练AlexNet,并且不断调优和完善。后来参加了李飞飞主导的ImageNet大赛,并且获得了当年的冠军。AlexNet当时能够达到的图像识别精度,遥遥领先于第二名。大赛之后,Alex和他的导师Hinton成立了公司,这个公司几个月以后被Google以4亿美金收购。这是一个靠GPU创富的故事,可以看到,GPU与深度神经网络的第一次结合创造了4亿美金的价值。

 

640?wx_fmt=jpeg

英伟达™精视™ (NVIDIA® GeForce®) GTX 580

 

在这之后,我们经历了近似寒武纪时期的神经网络模型大爆发的时代。2012年之前,人们虽然一直在研究,但是没有足够的算力来支撑这些算法,但是新的计算方式GPU Computing的出现,支撑了同类型的神经网络模型的训练;从而促成了各种模型的爆发式增长,进而进入到人工智能的时代。


如今,大家可以使用Caffe、TensorFlow、Theano等等开源的深度学习平台来进行实现自己的算法,也可以在CUDA上进行编程。人工智能研究领域的头部公司,他们现在推荐的算法模型已经达到了相当复杂的程度,一个模型可以达到1个T甚至几个T的规模,包含几十亿甚至上百亿个参数,数据量更是可想而知。这样的模型训练起来难度就越发高。因此,三算就这样纠缠在一起,互相促进、互相提升。

 

大家都知道著名的摩尔定律,其内容是当价格不变时,集成电路上可容纳的元器件的数目,约每隔18-24个月便会增加一倍,性能也将提升一倍。换言之,每一美元所能买到的电脑性能,将每隔18-24个月翻一倍以上。这一定律揭示了信息技术进步的速度。但是根据OPEN AI的今年年初的测算,从AlexNet出现以后,到去年年底一共大概5年的时间,在人工智能模型的训练层面,我们对于计算力的需求提升了30万倍。


我们都知道在摩尔定律的初期25年间,实现了性能5年10倍,25年10万倍的提升。这是摩尔定律在CPU年代为我们带来的计算力的提升。但是这对于人工智能模型对计算力的需求是远远不够的。因此,为了满足这种计算力的需求,我们不断地在GPU层面打磨我们的技术,提升各方面的性能。在这样的基础之上,我们也看到越来越多的人开始基于CUDA去编程训练自己的模型,Google、Facebook等也基于CUDA构建自己的开源深度学习平台。

 

NVIDIA于2018年3月在GPU技术大会上推出了HGX-2 平台,以及以HGX-2为架构的 DGX-2服务器。它是一件高密集,强性能并具有极佳的热性能的电子产品。DGX-2架构的核心是NVSwitch内存结构,本质上,NVSwitch结构为GPU节点创建了一个512 GB的巨大的共享内存空间,以 10 千瓦的功耗,在TensorCore上达到近2Petaflops的算力。


640?wx_fmt=png

HGX-2 平台的内嵌 NVSwitch 拓扑结构的框图(图源:NextPlatform)

 

所谓GPU Computing不是一个单单拼硬件的事,如何来把这些算力用到人工智能算法和实际应用场景下才是大多数人应该关注的重点。大家提到英伟达可能都觉得是一家芯片公司,但其实我们公司全球一共大概有一万两千人;其中一万一千人都是工程师,在这些工程师里,七千个都是软件工程师,他们共同来搭建和完善基于GPU Computing的人工智能生态。

 

640?wx_fmt=jpeg


目前来说,人工智能的应用场景比较多的集中在Consumer Internet,国内以BATJ、TMD为代表,美国主要是方佳、苹果、微软和Netflix等等。这些公司是人工智能领域的第一批先锋,他们在这个领域投入了大量的资金,堆积了很多的算力,把业内最有名的博士都招到他们公司,他们的每一个服务动辄就每天上亿的使用量(DAU,Daily Active User),因此又收集了大量的数据。李彦宏在2018 Create百度开发者大会上提到一个Intelligent Chasm的概念,可以理解为智能沟壑,说的是和这些头部公司所堆积的算力以及数据相比,全球其他所有公司的算力加起来可能也就是跟他们差不多的规模,甚至还不如。这种算力和数据的差距像天堑一样。

 

那么如何把这些看似高高在上的人工智能算法和还比较昂贵的算力,以及很难获取的数据,变得更加容易,这是我们过去已经做了的以及接下来的时间里要去做的工作。

 

以TensorRT为例,NVIDIA TensorRT是一种高性能神经网络推理(Inference)引擎,用于在生产环境中部署深度学习应用程序,应用有图像分类、分割和目标检测等,可提供最大的推理吞吐量和效率。TensorRT是第一款可编程推理加速器,能加速现有和未来的网络架构。通过TensorRT的大幅度加速,服务提供商能够以经济实惠的成本部署这些计算密集型人工智能工作负载。


二、AI行业案例分享


人工智能比较常用的应用场景除了互联网之外,还有自动驾驶、医疗、电信等等。

 

1. 推荐引擎


过去是人找信息,现在则转变为信息找人。大家可能都用过快手或者抖音之类的小视频APP,这些小视频的背后,都有神经网络算法在支撑。你在使用一个推荐引擎的同时,可能有几十个模型在对你进行评估,五年前可能只是sensing,感知你的需求,现在是从各种维度对你进行评估,多方面平衡,不光要吸引人点击,还要你停留足够长的时间;而吸引人点击和吸引人停留的算法又有很大的差别。


国内几乎所有大的互联网公司,都在训练自己的推荐模型,做到千人千面。推荐对于这些公司是非常重要的,因为互联网变现几乎都和推荐有关,电商类不用说,食品类比如国内的快手、抖音,国外的Netflix、Hulu,资讯类的比如Google news、今日头条,还有音乐类,社交类等等。用户的使用又在给公司提供新的数据,可以用于训练更有效的模型。这一方面提升了用户体验,但另一方面可能造成用户无法脱离这些产品。



640?wx_fmt=png

 

2. 医疗


在英伟达初创加速计划的会员中,有很大一部分都是人工智能+医疗的项目。医疗项目的一大挑战是诊断。目前来讲还是很难通过深度学习来做诊断,但市场仍然很大。根据一些相关报告上的数据,对于一些慢病诊断,使用深度学习算法进行辅助之后,可以将准确率提高30%-40%,同时成本下降一半。


以视网膜扫描为例。人们常说眼睛是心灵的窗户,事实上眼睛也是身体的窗户,人眼的视网膜上分布着丰富的毛细血管,通过扫描视网膜,可以检测到人身体上的一些问题,比如糖尿病的次生灾害之一就是视网膜的病变,以及心血管疾病。


在国内,能够通过视网膜扫描来进行诊断的医生比较少;而且在国内,部分医生是不能下诊断的。通过深度学习技术,可以将这些医生的经验进行收集,从而辅助诊断。目前这项技术还很难应用到医院里,但是一些保险公司非常愿意通过这种技术,来获得客户患病概率的一些信息,从而辅助制定保单金额。

 

3. 自动驾驶


为了进行自动驾驶的研发,英伟达有自己的一个server farm。这个server farm内有 1000台DGX-1,具有1个E(1E=1024P=1024*1024T)的浮点运算能力,用于自动驾驶模型的训练。一辆车在外面跑一天,会产生上T的数据量,一年可能是上P的数据量。但即使是这样,仅仅靠实车上路收集数据也远远不够,根据估算,自动驾驶车辆至少要跑10万英里,才能勉强满足上路的标准。就现在而言,自动驾驶的车辆脱把率并不高,Google的自动驾驶车辆大概是几千英里需要扶一次方向盘,其他的情况也基本一样。


我们现在的做法是把实车里的模型拿到server farm里,让他在服务器里的高度仿真的模拟环境下进行训练,在训练的过程中产生新的数据,然后用这些数据再去训练新的模型。通过这种做法来尝试加速对自动驾驶车辆模型的训练。

 

640?wx_fmt=png

图源:pixabay.com

 

在AI应用场景的分享之后,主讲人赵立威还向大家详细介绍了NVIDIA的新品Quadro RTX,它能够帮助游戏和电影行业实现实时的光线追踪和渲染。最后,他以英伟达在硅谷的新办公大楼“Endeavor”和“Voyager”作结,表达了英伟达在人工智能领域将不断努力,并期待人工智能技术带领人类走入未知领域的愿景。


【嘉宾简介】

640?wx_fmt=png

赵立威,解决方案架构主管, NVIDIA 亚太区资深IT及信息化专家,具有二十余年的IT系统实施、咨询和管理经验。曾就职于多家全球知名IT企业并从事技术,咨询和管理工作,具有丰富的IT理论和实践经验。目前,赵立威是英伟达亚太区解决方案架构部门的主管,负责AI、Deep Learning和HPC等技术领域的解决方案开发及技术合作等工作。


未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学交叉研究机构。


未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

640?wx_fmt=jpeg

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/494447.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

图解二叉树的Morris(莫里斯)遍历

二叉树的Morris(莫里斯)遍历 本文参考链接:https://leetcode.cn/problems/binary-tree-preorder-traversal/submissions/490846864/ 文章目录 二叉树的Morris(莫里斯)遍历模板代码前序遍历中序遍历后序遍历 Morris 遍历使用二叉树节点中大量指向 null 的指针&…

瓜分340亿美元物联网芯片半导体市场!机会在这五大行业【附下载】| 智东西内参...

来源:智东西摘要:市场压力之下,物联网为工业、汽车、智慧城市、医疗健康和消费半导体提供了新的解决方案。半导体产业渗透了我们生活中的各个方面,从闹钟、微波炉到手机、笔记本。而现在,物联网技术正在为全球半导体市…

【每日SQL打卡】​​​​​​​​​​​​​​​DAY 11丨产品销售分析 II【难度简单】

活动介绍: 「数据仓库技术交流群」已经正式启动每日SQL打卡,帮助大家扎实基础,努力工作之余,别忘了自我提升。 欢迎报名和邀请小伙伴参与,一个人可能走得很快,但一群人会走得很远。 🍅题目汇总(…

用互联网大脑模型分析滴滴的战略意图和战术失误

作者:刘锋 互联网进化论作者,计算机博士滴滴出行与美国的Uber,本质上都是基于互联网的智能打车软件,让任何拥有家用汽车的司机都可以与出租车司机一样,服务于打车用户。 在滴滴,Uber出世之前的出租车行业…

仅需1/5成本:TPU是如何超越GPU,成为深度学习首选处理器的

作者:Kaz Sato 来源:Google Cloud、机器之心摘要:张量处理单元(TPU)是一种定制化的 ASIC 芯片,它由谷歌从头设计,并专门用于机器学习工作负载。TPU 为谷歌的主要产品提供了计算支持,…

[唐胡璐]Excel技巧 - 使用Excel 2007完成多人协同录入工作

下面我们来介绍下Excel 2007的共享功能。 一、设置共享 启动Excel 2007,打开需要设置共享的工作薄文档,切换到“审阅”菜单选项卡中,单击“更改”组中的“共享工作薄”按钮,打开“共享工作薄”对话框,如下图所示。 …

Android之jni入门

jni即java native interface,使用jni我们可以在JAVA中调用C代码,提高了效率,可以复用代码,可以灵活的应用于各种场景 怎么使用JNI 安装软件 1.NDK 用于将C代码编译成so库 2.CygWin 在windows下模拟linux环境 3.CDT 在eclipse…

腾讯投资过 600 多家公司不惊奇,京东也有出手 260+ | 大公司投资并购盘点

来源:IT桔子A 股一片绿,这已经不是满屏绿色的第一天了,2018 年以来,A 股经历了起起落落落落落落……尤其在中美贸易战不断升级后,A 股的代表颜色就成了绿色,少数会有几家企业翻红,然而过不了几天…

埋点技术:“呵呵,你在网上的一举一动,都在我眼皮子底下”

🍅 作者主页:不吃西红柿 🍅 简介:CSDN博客专家 & 总榜前十🏆、HDZ核心组成员。欢迎点赞、收藏、评论 🍅 粉丝专属福利:知识体系、面试题库、技术互助、简历模板。文末公众号领取 1、什么是…

美国斯坦福大学发布2025计划, 创立开环大学, 彻底颠覆全球高等教育

来源:钱塘号《斯坦福大学2025计划》在以设计思考理论著称的斯坦福大学设计学院牵头下正式启动,这次教育改革改变了以往自上而下的方式,代之以师生为主导。与其说《斯坦福大学2025计划》是一个方案,不如说它是一个对未来大学模式进…

语言处理想突破,三座大山必须过

来源:大数据文摘编译:李佳、汤圆、钱天培“我的飞机什么时候到?”把这个问题抛给智能机器人助手。几乎可以肯定,机器立马就懵逼了。“我”是谁?“飞机”是航班还是淘宝上订的模型玩具呢?“到”又是到哪呢&a…

CSDN每日打卡已经2周,进展如何?(送两个CSDN背包)

🍅 作者主页:不吃西红柿 🍅 简介:CSDN博客专家 & 总榜前十🏆、HDZ核心组成员。欢迎点赞、收藏、评论 🍅 粉丝专属福利:知识体系、面试题库、技术互助、简历模板。文末公众号领取 点赞评论 …

趋势 | 人工智能领域十大最具成长性技术展望

来源:搜狐日前,在2018世界机器人大会基础技术与创新论坛中,中国电子学会发布了《新一代人工智能十大成长性技术展望》。经调研走访了一批在新一代人工智能技术及产业方面具备领先水平和特色的龙头企业,拜访了来自于知名高校、研究…

CTex + Texmaker

CTex 套装提供了一个Latex编译环境和相关的库,最大的优点是自动部署,直接就可以用。但是CTex自带的WinEdt和开源的Texmaker比起来在设计方面显得比较粗陋,影响工作效率。 Texmaker 本身只是一个前台软件,但是设计精良。如果已经安…

android之phonegap入门

利用phoneGap可以利用HTML开发安卓应用,是web app的一种,可以有效的提高开发效率,降低开发成本 。 第一步: 开发环境配置以及基本操作请参考其它文档. 新增一个名为 phoneGap 的android项目,将主activity命名为:PhoneGapActivi…

全球第二家 亚马逊“喜提”万亿美金市值 AI或是最大功臣

亚马逊创始人杰夫贝佐斯(Jeff Bezos)来源:网易智能摘要:9月5日消息,美国当地时间周二,全球电商巨头亚马逊(Amazon)股价一度触及史上最高点,促使亚马逊市值短暂达到1万亿美元。不过,在…

苹果/三星/华为纷纷布局人工智能 将AI作为公司发展新动力

来源:手机报在线摘要: 目前,以苹果、三星和华为为代表的手机厂商除了继续探索人脸识别、屏下指纹和柔性显示屏等技术外,也将目标瞄向了人工智能,纷纷将“AI拍照”、“AI芯片”等作为营销热门话题,并通过大力…

量子通信产业化初试,中国筹建千亿级国家实验室

来源:第一财经摘要:一个涉及多地的量子信息科学国家实验室(下称“国家实验室”)正在筹建,长期投资将达千亿元。第一财经从2018年国际量子密码会议上了解到,中国正在筹建的国家实验室涉及合肥、上海和北京等…

Android之自定义控件入门

本文主要讲述了实现安卓button点击变色与利用ViewPager实现图片自动轮播效果 我伞可以看到在很多应用中&#xff0c;安卓按钮按下时与正常时状态是不同的&#xff0c;这种效果也很容易达到。 第一步&#xff1a;创建XML文件定义不同事件的不同效果 <?xml version"1…

理性解读中国科技实力:不震惊式吹捧,也不全盘抹杀

来源&#xff1a;风云之声&#xff08;ID:fyvoice&#xff09;关于中国科技成果&#xff0c;大家一直都在讨论&#xff0c;网上也有很多评论文章。有的&#xff0c;把中国科技实力吹上天&#xff1b;有的&#xff0c;则干脆贬入地。中国在很多领域确实做得不错&#xff0c;与此…