人工智能的缺憾

来源: 人机与认知实验室

按:对于人工智能的发展最近一直有一些思考,抽空整理下来,算是抛砖引玉吧。欢迎指教讨论。

人工智能的崭新范式

  人工智能的研究范式和数理科学截然不同。这种范式数据导向,非常工程化,方法论发达而认识论不足。首先我们谈数据导向。李飞飞老师的ImageNet项目是一个非常典型的例子。海量图片的收集,整理和标注,有巨大的工作量。在这些高质量数据基础上进行了世界范围的图像识别竞赛,参赛队通过构建规模更大的深度学习网络,表现迅速超过了传统算法,这也成为深度学习标志性的成就。其基本的工作流程是积累大规模数据,得到更深的网络模型,实现更好的表现。虽然现在我们有了更多不同种类的深度网络应对不同任务,但这一基本框架并没有本质的改变。在该框架中,数据收集几乎占据了最为重要的位置,若数据质量不过关,很容易造成所说的garbage in - garbage out。而数据集大小是影响深度学习效能的重要因素,一般认为,当数据集较小时,深度学习不一定优于传统机器学习方法。而随着数据集规模的增大,传统机器学习算法的表现很容易饱和,深度学习的表现却可以随着网络规模的增大而更加优异。

  在传统数理科学领域,我们并没有如此依赖数据来进行模型构建。可能由于人脑思维能力的限制,人们更习惯于从简单假设出发,利用逻辑演绎或者公式推导来构建一套模型系统,用以解释实际数据。数理科学存在利用大量数据的情形:比如开普勒从第谷得观测数据中也找到了特定的结构,不过这种结构不是用神经网络的方式来描述的,而是采取了数学上更为简洁的形式。而该规律只有纳入牛顿力学的框架的时候才成为一个自然的结果。现在观测手段更加进步,据说LHC每秒可以产生100万亿字节的对撞数据。但这些数据不是为了导出模型,而主要是为了验证只有几十个参数的人为构建的标准模型,其包含的信息量也没有超过这个模型。在很多时候,理论的提出或者发展,可以用到很少的数据,甚至几乎不用数据。伽利略构建其运动学的时候,应该只依据很少的观测。而泰勒斯提出原子理论的时候我相信是没有什么观测数据的。理论的魅力在于可以从人的经验,思维或者直觉中生产,具有内在的简洁性却能解释大量的现实观测。

  对数据的内在追求,导致人工智能研究中有很多重劳力的部分。和产业的结合,资本的进入进一步放大了这一效应。国内人工智能创业公司不断涌现,数据标注俨然已经成为一种新的职业。已经有不少相关的报道,比如可以参考甲子光年的《那些人工智能背后的人工》一文。这些人每个月拿着4000左右的工资,在电脑前机械的点着鼠标做图片标注,得到的数据最终用于无人驾驶项目。还有很多下到村里收集人脸识别数据的,报酬是洗衣粉或者豆油。即使是科学研究逐渐资本化的今天,也很难想象一门学科可以像这样直接催生新的劳动关系。这也部分由于我们要谈的第二个问题,也就是人工智能研究非常工程化。

  如果上过吴恩达老师的深度学习课程,就会发现,深度学习在工程上非常先进,具有一套非常清晰的工作模式。对于一个深度网络模型,那些参数具有最大的影响,如何通过表现判断调节参数的方向,人们有着丰富的经验。最终决定表现的还是数据质量,规模,以及特征(feature)选取。这就导致了人工智能领域的工作,非常容易scale-up,也就是规模化。这也是硅谷最喜欢的发展模式--通过资本催化迅速实现技术飞越和革新。类似的模式造就了我们熟悉的facebook,amazon,现在的互联网移动互联网世界。

  在数理科学领域,我们不能简单通过积累用户或者数据获得革新。一般情况下,理论的发育程度对应了工程范畴的发展程度。新的工程实践可能要求理论的创新,而理论的进步又可以拓展人们进行工程化创造的能力。没有爱因斯坦的质能方程,我想人们试再多年,有再多数据也不会造出原子弹。所以人工智能可以算是一朵奇葩,感谢计算能力的巨大发展,它工程的发展程度已经可以跟理论脱节。这种缺乏理论或者认识论会带来比较严重的后果,我们后面会有所述及。

人工智能没有催生理念的进步

  对人工智能最大的批评在于它的可诠释性,人们难以理解越发庞大的深度网络是如何发挥它的作用,每个节点有着怎样的功能。拿图像识别任务来说,比较早期的深度网络AlexNet有35K个参数。到了2014年,VGG16网络有138M个参数。在强大的表现背后,是一个人们从未接触过的,难以理解的庞大造物(考虑到标准模型只有19个自由参数)。关于如何解读网络,现在逐渐有一些工作。但似乎还没有令人信服的结果。在数学上可能也没有成熟的工具来针对这类问题。神经网络算法的提出,最开始是受到了生物学研究,尤其是神经研究的启发。不过即使针对比较简单的模式生物,比如只有302个神经元的线虫,我们也刚刚能理解一些最简单行为,比如趋热或者趋冷在神经系统里细胞层面是如何编码的。诠释神经网络的工作,一方面受制于网络规模的飞速增大,参数的急剧膨胀,以及应用场景的逐渐复杂。另一方面,这本身可能就是不可解的问题,类似于我们本身都不知道大脑是如何运作,产生复杂思维。

  没有理论的学科会造成很多问题,可以参看我之前的博文《没有理论的学科会怎么样》。针对人工智能这一领域,第一个负面结果是会造成边际效益递减。也就是随着数据规模的增大,网络复杂度的增大,获得的进步越来越少。我们谈到深度学习一个重要的特征是表现随着数据体量增大而提高,这也是为什么大数据时代最适合深度学习。有时候我们觉得参数的膨胀标志着一种进步。但从物理学的角度看,这其实是退步--因为这标志着参数解释力的下降。这正是现实发生的情况,但即使我们在计算能力以及数据规模(感谢资本)上大跃进,表现的提高却越来越慢。还是拿图像识别为例,AlexNet的错误率是16.4%,而参数增加了4000倍的VGG网络错误率是7.3%,基本错误减半。换过来说,是35K个参数可以识别83.6%的图片,多出几千倍的参数只多识别了9.1%的图片,效能加起来只有接近九分之一。这也是为什么每当人工智能进入一个新的领域时,往往可以产生激动人心的初步结果(因为数据要求低),但对表现的改善却是趋于更慢的。这对于一些要求苛刻的领域这其实是致命的,比如对于自动驾驶,我们必须把失误控制在非常低的水平(每次失误可能都会造成致命的事故),而现实情况又非常复杂多变,有些情况不仅靠训练,也要靠应变和经验上的判断。

  没有理论的另一个负面结果是研究过程近似于盲人摸象。虽然我们也有越来越多的网络模型,但这些模型的构建似乎更受到灵感的作用,而不是通过理论的启发。这种try and error类型的研究,试对了就好,试不对就重来,运气的成分会比较大。从理念上看,深度学习领域似乎还没有根本上的创新,其最大的进步似乎还是计算力上的进步,工作的模式仍然接近于对生物神经系统的模仿。而这种模仿其实并不能算是效率很高的模仿,我相信人脑完成复杂任务计算的效率平均讲还是高于神经网络的。至少从计算时间和所需能量来讲是远优于计算机的。人脑的功率据说是20W左右,而现在好点的英伟达显卡比如GeForce GTX 1080Ti的功耗已经到了200W大关了。好在现在计算力不是瓶颈,再低的效率乘上庞大的计算力都能得到可观的结果。

  人工智能从应用方式和应用场景上,都是对人的一些基本能力的模仿。吴恩达老师有过一个说法,说如果一个问题,人可以凭借直觉在几秒内判断出来,那么就有可能用人工智能来解决。现在出现比较多的也的确是这类问题,比如对于图像识别,到底是猫是狗,人一般几秒钟就能看出来。或者在自动驾驶方面,在一个路口是要刹车还是左转,正常的司机几秒钟也能判断出来。所以说人工智能是对人的能力的再现,这使得它在一些场景下可以代替人工,提高生产效率。但它难以完成更高级的一些思维活动,比如创造性思维。虽然有些“灵感一现”发生的时间也很短,但目前的计算框架并不具备相应的发散性,联想性和随机性。所以深度学习研究不仅自身缺乏理论,而且也很难为其他学科领域带来新的理论。根本的区别在于数理科学的研究具有不同的工作模式,一般包括假设提出,理论发展和实验验证,三者之间相互促进。其中假设的提出是最为关键的一步,也是研究设计的基础。人工智能在这第一步就败下阵来。人怎么能够提出假设,这是一个复杂的问题。但其基本原因,脱不开人是有自我意识的,对世界的认识是自由的,人的思维也是自由的。人工智能有没有思维,有没有意识是另外的话题,但目前来看它的训练数据都是高度单一的,它的结构或者结构的规则也是比较单一的,难以形成更复杂的思维结构。

 人工智能与社会发展

  所以综上人工智能最佳的应用场景是对人类劳动的部分替代。人工智能的革命,可能是生产效率的革命,类似于工业革命把人的双手解放出来。但现在还很难讲它在产业上会不会产生类似工业革命的影响,主要的区别可能有几点,第一,现在社会一般性产品的生产基本已经饱和,需要更多的是创新性产品,消费主要为了提高生活品质,也就是所说的“满足美好生活需要”。在生产创新性产品和服务方面,还没有看到人工智能的优势。第二,全球经济发展不平均(以及国内发展不平衡)造成的大量的低成本劳动力,在一些场景下替代这部分劳动力效益不高。举一个极端的例子,一些创业公司搞线上的人工智能产品或者demo,背后其实可以在人力成本比较低的地方雇真人来做,这也是实际发生过的事情。如果人力成本很低,电子化的人不一定能竞争过肉身的人。如果有一天人力成本都很高了,我们可能就进入共产主义社会了。我怀疑人工智能最危险的地方在于它对社会治理和网络治理的影响,而且这种影响很可能是负面的。这里就不展开多说了。

  另外像我提到的,人工智能对生产力的解放是有限的,它还难以替代创造性劳动,尤其是科研活动。我们支持人工智能是合理的,all-in人工智能是危险的。基础研究还应该受到重视,目前看这是唯一可能导向新技术革命的路径。不重视基础研究,永远会被人落在后面。

原文载于:http://blog.sciencenet.cn/blog-927304-1148263.html


未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学交叉研究机构。

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/489358.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

python编程环境安装包_Python环境安装与配置

第二天-Python环境境安装及简单程序的编写 一.Python的安装 1.首先进入网站下载:点击打开链接(或自己输入网址https://www.python.org/downloads/),进入之后如下图,选择适合自己操作系统的版本进行下载。2.下载完成后如…

Scala初体验

因为工作中要用到Scala了,本来前面自己还在学习Storm的,没有办法,先把Scala和Spark的这些内容学完在回去看Storm吧! 既然我们要学习Scala,那么我们不禁的要问了,什么是Scala? Scala是一种多范式…

NEBULA超级计算机,科学网—中国“星云”或将称霸全球超级计算机500强

中国“星云”或将称霸全球超级计算机500强曙光“星云”高性能计算机系统美国橡树岭国家实验室的“美洲虎”(Jaguar)北京时间8月2日晚间消息,据国外媒体报道,全球超级计算机500强排名今年11月将进行更新,而中国的超级计算机“星云”(Nebulae)届…

全球43亿IPv4地址正式耗尽,IPv6才是物联网的菜

来源:鲜枣课堂、财经杂志、CSDN物联网智库 整理发布导 读负责英国、欧洲、中东和部分亚洲地区互联网资源分配的欧洲网络协调中心(RIPE NCC)昨日宣布,其已从可用地址池中完成了最后IPv4地址的分配,这意味全球所有43亿个…

nmap地址段下的ip_安服福音——花式nmap扫描整理结果(文末重磅消息)

0x01应用背景安全服务的工作,日常扫扫扫、日常的工作一次性让人扫描多个网段,经验充足的老师傅会使用xml转excel,但是新入门的安服小伙伴们,是否也经历过一段手工一个个整理的时期呢,我是的。后来,随着需求…

getter方法的作用 vuex_Vuex的工作流程

Vuex 的状态存储是响应式的。当 Vue 组件从 store 中读取状态的时候,若 store 中的状态发生变化,那么相应的组件也会相应地得到高效更新。你不能直接改变 store 中的状态。改变 store 中的状态的唯一途径就是显式地提交 (commit) mutation。vuex有哪几种…

从生态、业绩角度分析芯片行业

来源:国信证券生态角度:合作伙伴、底层架构、高级人才、EDA 软件技术的发展是从点到面,逐渐复杂。产业的发展也是从单一点突破,最后形成上下游产业链。伴随着技术变复杂和产业链延伸,市场形成稳定的生态结构&#xff0…

tensorflow计算网络占用内存_详细图解神经网络梯度下降法(tensorflow计算梯度)...

1.什么是梯度各个方向的偏微分组成的向量​ 举例说明,z对x的偏微分和对y的偏微分如下,则梯度是(-2x,2y)的这样一个向量​ 在光滑连续函数的每个点上,都可以计算一个梯度,也就是一个向量&#xf…

关于数据中台系统,需要了解哪些技术?

来源:国家建材大数据研究中心今天让我们全面解读中台,包括企业为什么要平台化,目前中台都有哪些形式,实施中台系统的优势、面临的问题以及建议都有哪些?中台这个概念早期是由美军的作战体系演化而来的,技术…

python for循环连续输入五个成绩判断等级_Python条件循环判断

1.条件判断语句 Python中条件选择语句的关键字为:if 、elif 、else这三个。其基本形式如下: 1 2 3 4 5 6 7 8 9 age_of_cc 27 age int(input("guessage:")) if age age_of_cc: print("Yes,you got it!") elif age > age_of_cc: p…

人工智能的下半场,一定少不了自监督学习

来源:AI科技评论作者 | Lilian Wang 王荔编译 | MrBear对于给定的任务,在拥有足够的标签的情况下,监督式学习可以很好地解决该问题。想要得到好的性能,往往需要大量的数据标签,但是手动收集数据的成本很高(…

bert 多义词_BERT之后,GLUE基准升级为SuperGLUE:难度更大

选自Medium作者:Alex Wang等机器之心编译参与:PandaBERT 等模型的进展已让 GLUE 基准在新模型的评估方面日渐乏力,为推动 NLP 技术的进一步发展,有必要对 GLUE 指标进行更新。为此,纽约大学、Facebook 人工智能研究所、…

thread.sleep是让哪个线程休眠_Java多线程:多线程基础知识

点击上方☝SpringForAll社区 轻松关注!及时获取有趣有料的技术文章本文来源:https://www.cnblogs.com/ITtangtang/p/7602363.html一、线程安全性定义:多个线程之间的操作无论采用何种执行时序或交替方式,都要保证不变性条件不被破…

整个领域没了!学术界有史以来最大的丑闻

来源:中大科技处10月15日,学术界发生了一件大事。哈佛终身教授学术造假,31篇文献被撤,无数研究化为泡影……哈佛一次性从各类顶尖期刊上撤稿了31篇论文,整个心肌干细胞相关的研究被认定为“从一开始就基于欺诈性数据”…

thinkPHP-空操作

空操作 当访问的方法不存在时&#xff0c;可以定义一个empty方法来避免空操作 function _empty(){echo "网页不存在&#xff0c;请检查地址信息";} 这样当访问不存在的方法时就会显示以上信息 当访问的控制器不存在时&#xff0c;可以定义一个空操作器 <?php nam…

python3 面向对象_Python3 面向对象

Python和C都是一门面向对象的语言&#xff0c; 面向对象技术简介 类(Class):用来描述具有相同的属性和方法的对象的集合。它定义了该集合中每个对象所共有的属性和方法。对象是类的实例。比如 f file()##创建了一个类(file())的对象f 类变量&#xff1a;类变量在整个实例的对象…

口腔ct重建服务器原理,牙科CT是什么?牙科CT的原理及优势介绍

原标题&#xff1a;牙科CT是什么&#xff1f;牙科CT的原理及优势介绍牙科CT是什么&#xff1f;牙科CT&#xff0c;又称口腔CT&#xff0c;是一种新型牙科类仪器&#xff0c;它可以从三维角度对口腔部组织情况进行扫描检查。牙科CT在业界被誉为神奇的“慧眼”&#xff0c;它犹如…

机器学习奠基人Michael Jordan:下代技术是融合经济学,解读2项重要进展

来源&#xff1a; 北京智源人工智能研究院2019年11月1日北京智源大会全体大会及闭幕式上&#xff0c;被誉为“机器学习之父”的加州大学伯克利教授、智源研究院学术顾问委员会委员 Michael I.Jordan 做了题为《决策与情境&#xff1a;基于梯度的博弈均衡求解方法》&#xff08;…

matlab 带有下标的赋值维度不匹配_远见另类资产管理体系下的核心系统搭建

另类资产管理体系下的信息化建设&#xff0c;或许是小众领域中的更小众话题&#xff0c;但仍值得讨论。很多基金公司、投资公司或资产管理公司都搭建了各种大大小小的应用系统&#xff0c;如OA系统、财务系统、CRM系统等&#xff0c;但对于上系统的价值&#xff0c;不仅很难量化…