来源:陈德旺科学网博客
链接地址:http://blog.sciencenet.cn/blog-57940-1270913.html
人工智能自1956年诞生之日,就肩负用计算机程序模拟人类(或生物体)智能的初心与使命,从而理解智能的工作原理与运作机制。人类智能多才多艺,有很多维度,直觉和顿悟等高级智能目前计算机还很难模拟。计算机模拟的人工智能目前有2个主要维度:一个是精度,精度越高,效果越好;一个是可解释性,知其然更要知其所以然。
这让我联想到以前学过的课文《孟子·告子上》其中的一段: 孟子曰:“鱼,我所欲也,熊掌亦我所欲也;二者不可得兼,舍鱼而取熊掌者也。对孟子而言,他既喜欢吃鱼,也喜欢吃熊掌。但是,如果只能选一个的话,他会选择熊掌而放弃鱼。这表明孟子更喜欢熊掌,或者隐喻熊掌是对孟子更为重要的事物,如图1所示。
图1. 亚圣孟子的鱼与熊掌不可得兼图
对于人工智能的研究者来说,何为鱼,何为熊掌呢?从人工智能试图了解人类智能的运作原理和工作机制的角度来说, 我认为对人工智能的研究者来说,可解释性是“熊掌”,而精度是“鱼”。从早期人工智能的发展来看,人工智能的开创者们分别从这两条路开展他们的研究,类似笑傲江湖的华山派的气宗和剑宗,如图2所示。
图2. 华山派的气宗和剑宗
“精度派”代表人物和事件有:1957年Rosenblatt研制成功了感知机;1986年David Rumelhart等提出的BP算法;2006年Hinton 等提出的深度神经网络等。由于大数据的广泛存在,硬件计算能力的快速发展,目前人工智能领域精度派占据领先的优势。
“可解释性派”代表人物和事件有:美籍华人数理逻辑学家王浩于1958年 证明了《数学原理》中有关命题演算的全部定理(220条) ;1965年鲁宾逊(J. A. Robinson)提出了归结原理,为定理的机器证明作出了突破性的贡献。美国斯坦福大学的费根鲍姆(E. A. Feigenbaum) 1965年开始专家系统DENDRAL的研究;1965年美国加州大学伯克利分校Zadeh教授提出了模糊系统等。
当然也有一些精度和可解释性的平衡派,又可以分为2个分支。一些专家在可解释性为主的前提下,也应用一些优化方法来提高精度,比如决策树和 SVM 等。还有一些专家研究在保证精度的情况下,提高算法的可解释性,比如深度神经网络的结构简化和参数简化研究等。
图3是一个著名的例子,表明只是追求精度是不够的。计算机视觉对图像进行学习和分析,来判断图像当中哪些是狼,哪些是哈士奇。深度神经网络(DNN)算法错误的把一只哈士奇当作了狼。这是因为我们在选择培训数据,大部份狼的图片背景中是雪地。DNN算法一下就侦测到哈士奇所在的雪地就判断其为狼了,而不是图片中指出的狼和哈士奇面部明显不同的专家经验。
图3. 误判哈士奇为狼的深度神经网络算法
可解释性是人工智能的熊掌,可解释性差将不能用于安全相关的重要领域或者风险隐患很大。比如新冠疫苗,一定要先搞清楚它的工作机制和运作原理,否则没人敢用。基于深度神经网络的无人驾驶汽车如果出事(如图4),连事故原因都没法分析是不能接受的,下次都不知道如何改进和预防。
图4. 突然失控的无人驾驶汽车
总之,人工智能“以精度为王”的时代即将过去,以“可解释性为本”的时代即将到来。我认为应该以可解释性强的人工智能模型与算法为基础,并借鉴深度神经网络的成功,不断提高其精度为主要方向,比如深度模糊系统,深度决策深林,深度贝叶斯网络等等。可喜的是,很多学者已经意识到这个重要的方向,并做出了很多有意义的进展。
作者简介:陈德旺,IEEE高级会员,IEEE Trans.on ITS 编委,中国自动化学会混合智能专委会副主任,中国运筹学会智能计算分会副理事长,美国加州大学伯克利分校访问学者,福州大学数学与计算机科学学院教授、博士生导师,主要研究方向为人工智能、大数据和智能交通等。至今发表论文120余篇,其中SCI检索论文40余篇,IEEE Transaction论文13篇,他引3000余次;获得各类科研奖励10多项。
未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。
如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”