来源:AI科技评论
作者:梅拉妮·米歇尔
论文题目:
Why AI is Harder Than We Think
论文地址:
https://arxiv.org/pdf/2104.12871.pdf
关于作者:梅拉妮·米歇尔,圣塔菲研究所客座教授,畅销书《复杂》作者,《集异璧》作者侯世达的学生。
回首望来,自从20世纪50年代的人工智能之春以来,人工智能这个烫手的山芋在人们的嫉妒希冀、几度失望中经历着一次次的起伏波折,无数次大公司和科研界的大规模投资和大规模撤资见证着这个颇受争议的领域在起起伏伏中挣扎与蛰伏。
时至今日,虽然我们看到以深度学习为首的人工智能领域在诸多领域中大放异彩。但在工业界和学术界中,诸如自动驾驶、 家政机器人和对话机器人等等这类需要长期依赖和学习的技术的发展,却比人们预期得要缓慢和艰难得多。
这些领域的困境,以及人工智能几度兴衰的根本原因,其实是人类对于“智能”的定义偏差和复杂性理解上的限制。因此在本文中,我介绍了人工智能研究人员的四个常见的错误认知,这些谬误可能导致我们对于该领域的过度自信和错误预测。最终,我还讨论了这些谬误所带来的一些开放性问题,包括如何给机器和算法注入人类常识之类的老生常谈的问题。
人工智能的兴衰沉浮
自从人工智能领域诞生之初,人们就对它有着盲目的自信和过度的信任。比如在1958年的时候,纽约时报的一篇报道中就介绍了美国海军对弗兰克・罗森布拉特的“感知器”模型,也就是深度神经网络的前身的评价,他们说:海军今天展示了一台电子计算机的原型机,它能够走路、说话、观察、书写和复制自己,并且能够意识到自己的存在[9,10]。
紧接着,在官方这样高调的宣传之后,人工智能的先驱们便心领神会地对人工智能这个领域开启了无限的吹捧、憧憬和附和。在1960年,赫伯特・西蒙宣布,“机器将能够在20年内完成一 个人可以做的任何的工作!"[1]。紧接着的第二 年,Claude Shannon也对这一说法进行了大胆的预测:“我十分自信的预测,在未来的10到15年间,科学家的实验室里会出现一些难以置信的成果,它们就跟科幻小说中的机器人一样神通广大。"[11]。同样的,在几年之后, Marvin Minsky预测到:“在一代人的时间之内,人工智能的问题将得到实质性的解决!"[12]
20世纪60年代和70年代初乐观的人工智能之春,反映在这些预测中。但是很快,这些虚假的繁荣就表现出了各种弊端,进而导致了人工智能的第一个寒冬。明斯基和帕普特1969年的《感知器》一书[13]表示,罗森布拉特的感知器可解决的问题种类非常有限。
1973年,英国的 Lighthill报告[14]和美国国防部的“美国研究小组分别受到各自政府的委托,来评估人工智能在不久的将来的前景。他们都对人工智能的未来表示消极的情绪。这直接导致了两国相关投入的大幅减少,人们对人工智能的热情进而下降。在这些高调的言论之后,是当时人工智能领域巨大的热度、声誉和背后像泡沫一样脆弱的事实。因此,在20世纪60年代和70年代初过度乐 观和短暂的“人工智能之春”之后,该领域迎来了第一波寒潮,史称“人工智能的冬天”。
但是没经过多久,在1980年初,人工智能领域便再次呈现了反弹之势,这得益于当时的几项成功的应用。在工业领域中,专家系统大行其道 [15];同时日本对其“第五代”项目进行了巨额的投资 [16],而该项目旨在将雄心勃勃的人工智能算 法作为其新一代计算机的核心;此外作为回应,美国提出了“战略计算倡议”[17],该倡议为人工智能的基础进展提供了大量的资金;此外,神经网络领域在此时也有着一系列新的成果出现[18,19]。这些举措都为该领域带来了一丝新的振兴的曙光。
但是好景不长,到了1980年代后期,这些乐观的希望都破灭了,这些技术也都没有达到人们希望的足够智能的样子。其中,专家系统需要依赖人类来创建规则,手工地从领域专家的操作和一言一行中总结归纳出各种规则。但是这样繁琐复杂的操作却只能换来一个脆弱和残缺的系统,它没有任何的延伸性。在面临新的情况的时候,它往往无法正确地概括和适应。
从本质上来说,编写规则的领域专家实际上依赖的是他的经验和自我潜意识中的归纳总结能力,以及对相关问题的泛化能力,我们通常称之为“常识”,但是潜意识的常识却是我们无法教会算法和代码的内容。此外,在第五代项目和美国战略计划倡议下开发的人工智能方法也遇到了类似的通用性问题。在20世纪80年代和90年代时,神经网络方法对于简单的问题能够工作的很好,但是当其面对复杂问题的时候却往往无能为力。
事实上,20世纪80年代末标志着人工智能的一轮新的寒冬的来临,彼时,人工智能的声誉受到了极大的影响。当我在1990年获得博士学位时,业内人士悄悄地告诉我说,尽量别再简历中用到“人工智能”这个略带贬义的词汇。
在1956年Dartmouth夏季研讨会50周年纪念活动上,人工智能先驱约翰・麦卡锡(John McCarthy)简洁地解释了这个问题:“人工智能比我们想象的要难”[20]。
时间来到20世纪90年代和21世纪,机器学习的发展变得十分迅猛:人们开始以数据为驱动提出预测模型算法。本质上来说,这种方法的理论基础是统计学,而不是神经科学或心理学。它们旨在执行特定的任务,而不是赋予机器通用的智能。而为了能够和早已臭名昭著的老一代人工智能方法划清界限,当时的机器学习从业者通常会将他们的学科冠以机器学习的名号,以免被拉下水。
然而在2010年左右,深度学习,这种受到大脑神经结构启发的多层神经网络模型开始大行其道。它从大量的数据中抽丝剥茧,表现出了惊人的总结和归纳能力,这使其绝地反杀,一跃上升到了机器学习一哥的位置。其实,深度神经网络从20世纪70年代就已经存在了,但直到最近,得益于互联网上得来的巨大数据集、 快速并行计算芯片和训练方法等方面的创新, 深度学习便扩展到了大量以前未解决的领域之中,并且获得了不俗的成绩。深度神经网络驱动了我们在过去十年中几乎所有的主要进步, 包括语音识别、机器翻译、聊天机器人、图像 识别、游戏和蛋白质结构分析等等。
仿佛一夜之间,“人工智能”这个词汇开始遍布街头巷尾,人们再次对这些被冠以“一般”、“真 实”和“人类层面”等人工智能词汇出现了新一轮的乐观的情绪。
在一项2016年和2018年的面向人工智能研究人员的调查中,数据的中位数显示,在被调查人员中,他们认为在2040-2060年间,人工智能算法能够达到人类智力水平的可能性为50%。尽管在早期和后期的估计中,结果存在很大的差异[21, 22],但从这个整体结果上可见一斑。
因为即使是一些最知名的人工智能专家和企业家,他们的估计和统计也是十分盲目乐观的。举个例子,一本广泛使用的人工智能教科书的作者Stuart Russell就预测,“超级智能人工智能可能会发生在我孩子那代人中”[23];而人工智能公司OpenAl的首席执行官Sam Altman 也预测说,在几十年内,计算机程序几乎可以 一切事情,包括做出新的科学发现、扩大我们对万事万物的认知和概念[24]。谷歌DeepMind的联合创始人Shane Legg在2008年的时候就预测道,“人类水平的人工智能将在2020年代中期实现”[25], Face book首席执行官马克・扎克伯格在2015年宣布,"Facebook未来5到10年的目标之一便是让机器学习在基本上所有方面都超越人类。”
然而,尽管学术和工业界对人工智能都有着十分乐观的预期,但没过多久,深度学习的能力就出现了短板。事实表明,和所有过去的人工智能系统一样,深度学习系统在面对与训练数据不同的新的数据的时候,可能会表现出必不可免的错误和脆弱性,也就是说,它们会出现无法预测的错误。这是因为这些系统容易受到捷径学习(shortcut learning) [27,28]的影响。
捷径学习是指,算法是从训练数据中挖掘和统计关联性,从而使算法计算得出正确的答案,但有时会错误的学习到其中错误的关联关系,而没有抓住数据背后的重点。换句话说,这些算法没有学习到我们试图教给它们的概念和映射关系,而是在抄近道,在训练集中找到捷径来达到仅在训练集中完成任务的目的,而这样的捷径会导致错误的结果。
事实上,深度学习系统往往无法学习抽象概念,从而无法使它们能够将所学到的知识应用到新的情况或任务中[29]。此外,这些系统很容易受到“对抗性扰动(adversarial perturbations)"[30]的攻击,特别性扰动是指人们对输入进行特定的更改,这些更改要么是不知不觉的,要么是与人类无关的,但会导致系统犯错误。
尽管业界的研究人员已经对深度神经网络的局限性进行了广泛的研究,但人们对于其脆弱性的根源仍未完全了解。这些网络模型往往包含了大量的参数,是一个复杂的系统,因此其背后的决策机制十分的不透明。然而,这些算法通常对一些对抗性干扰产生错误的决策, 也会产生一些人类无法解释的错误,因此,我们可以看出它们实际上并不理解所处理和所输入的数据,至少不是人类大脑意义上的“理解”。人工智能领域是否能够通过增加网络层数、输入更多的训练数据来实现这种真正的理解,或者甚至是为网络增加更多关键而基本的因素,才能实现这种“理解”,我们尚未可知。
在撰写本文时(2021年年中),学术界和工业界又产出了几种新的深度学习方法,它们在刷新个大榜单记录的同时,再次在人工智能社区中产生了相当大的乐观情绪。
一些最热门的新领域是使用自监督学习[31]、元学习 [32]和深度强化学习[33]的Transformer 结构;这里面的每一个方向都被认为是朝着更一般、更类似人类的人工智能目标的重要进步。虽然这些Transforme和其他的创新已经显示出一些希望,但人工智能的兴衰循环很可能还会继续。该领域在相对狭窄的方向上不断进步,但是否以及何时才能够让机器达到和人类智力相当的智能水平,我们只能拭目以待。
在接下来的章节中,我将讨论人们对于算法达到人类水平的人工智能的可能时间的预测, 在某些方面反映了我们自己的偏见,以及人类对于智能本质理解的缺乏。特别是,我描述了我们对人工智能的思考中的四个谬论(Fallacy),这些谬论对我来说似乎是最核心的。虽然这些谬论在人工智能界可能人尽皆知,但专家们做出的许多假设仍然伴随着这些谬论的影子,并让我们对 “真正”智能机器的近期前景产生了错误的信心。
谬论1:各个狭义的智能小进步都是通往最终人工智能路上的基石
我们可以为特定的任务设计专门的人工智能程序,它虽然不像人类一样通用和聪明,但是能够完美的处理一些特定的任务。这些特定的人工智能往往被视为迈向更通用的人工智能的“第一步”。比如,IBM那台会下棋的电脑“深蓝”被誉为人工智能革命的第一步[34]。IBM更是将其沃森系统夸赞为“迈向认知系统的第一步,一个新的计算时代的标志”[35]。OpenAI的GPT-3语言生成器也被称为“迈向通用智能的一大步”[36]。
但事实上,如果人们看到一台机器完成了些很惊人的任务,尽管是在一个狭窄的区域,他们通常也会认为这个领域离通用人工智能还有十分遥远的距离。哲学家日Hubert Dreyfus(因引用Yehoshua Bar-Hillell创造的一个术语)将这种 认知称为“第一步谬论”。正如Dreyfus所描述的那样,“第一步谬论是指,我们总是认为,自从我们在计算机智能方面的第一次工作以来,我们就一直在朝着通用人工智能缓慢前进,并最终实现终极态的人工智能。我们还盲目的相信,我们对代码和程序的任何改进,无论多么微不足道,都算作是一种人工智能的进步。”Dreyfus引用了他的工程师哥哥Stuart Dreyfus的一句话调侃道:“这就像是说第一只爬上树的猴子正在朝着登陆月球前进一样荒诞不经”[37]。
Dreyfus和许多前辈与后辈的人工智能专家一样持有类似的观点,他说,在人工智能连续进步的假设中,“意想不到的障碍”一直是常识问题。我将在最后一节中更多地谈论这个常识障碍。
谬论2:容易的任务很容易做,难办的任务很困难
虽然John McCarthy哀叹说“人工智能比我们想象的要难”,但Marvin Minsky解释说,这是因为“容易的事情很难”[38]。也就是说,我们人类在没有太多思考的情况下所做的事情,比如眺望世界,理解我们所看到的,进行对话,走在拥挤的人行道上而不撞到任何人等等,这些事情对机器来说是最困难的挑战。
而相反,让机器做对人类来说非常困难的事情往往更容易。例如,解决复杂的数学问题,掌握国际象棋和围棋等游戏,以及在数百种语言之间互相翻译……这些对机器来说都相对容易。这是一种被称为“莫拉韦茨悖论”(Moravec's paradox)的问题,它以机器人学家Hans Moravec的名字来命名,他写道:“让计算机在智力测验或跳棋时表现出成人水平的表现相对容易,但在感知和行动能力方面,计算机穷极一生很可能也达到一岁孩子的水平‘'。
这个谬论从人工智能领域的萌芽之初便影响了人们对人工智能技术的思考。人工智能先驱 Herbert Simon说:“人们认知中所有感兴趣的事情发生在100毫秒以上,而100ms其实就是你认出母亲所需要的时间”[40]。Simon是说,要理解认知,我们不必担心无意识的感知过程。这一假设反映在大多数象征性的人工智能传统中,它侧重于对已经感知到的输入的推理过程。
在过去的几十年里,符号派的人工智能方法在学术界失去了青睐,学术界主要由深度学习主导。深度学习确实解决了感知的问题。然而, 这一谬论背后的假设,仍然出现在很多近期发表的人工智能的言论当中。例如,在2016年的一篇文章中,深度学习先驱Andrew Ng引用了 Simon的假设,大大低估了无意识感知和思维的复杂性:“如果一个典型的人能够用不到一秒钟的思维完成一项脑力任务,我们现在或不久的将来都可以使用人工智来将其自动化”[41]。
而更微妙的是,谷歌DeepMind的研究人员在谈到AlphaGo的胜利时,将围棋游戏描述为“最具挑战性的领域”之一[42]。这个挑战是对谁而言?也许对人类来说是如此。但正如心理学家 Gary Marcus所指出的,有些领域,包括游戏,虽然对人类来说很容易,但对比而言,这些任务对于人工智能程序来说,比如Alpha Go,会更具挑战性。一个例子是猜谜游戏,它既需要表演技能、语言技能,更需要复杂的思维理论[43],这些能力远远超出了人工智能今天所能完成的事情。
人工智能比我们想象的要难,因为我们在很大程度上没有意识到自己思维过程的复杂性。Hans Moravec这样解释了他的悖论:“人类经历了上亿年的进化,大脑中深深烙印着一些原始的生存技能,其中包含了巨大、高度进化的感官和运动机制,这些都是人类关于世界本质以及如何在其中生存的上亿年的经验。我相信,执行这种需要深思熟虑的思考过程是人类最外化的表现,而其背后深层次和有效的,则是源于这种更古老和更强大的感知和运动能力的本能反应。而这种支持通常是无意识的。换句话说,因为我们祖先的强大进化,我们每个人都是感性理解、人情世故和运动领域的杰出运动员,我们实在是太优秀了,以至于我们在面对实际上十分困难的任务时还能驾轻就熟”[44]。
简而言之,Marvin Minsky指出,总的来说,其实我们不知道自己的大脑最擅长什么[45]。
谬论3:助记法的陷阱
“助记法陷阱”(wishful mnemonic)一词是计算机科学家Drew McDermott在1976年对人工智能的批评中所提出的,他说:
“人工智能程序头脑简单,其主要根源之一便是它会滥用助记符,比如它会用“理解”或“目标”来指代程序和数据结构,从而在程序运行时表现出理解的样子,但其实只是输出了“理解”的字样。这是很荒诞的,因为这就像是一个工程师把它的主循环称为“理解”,那他就算技艺再高超,能力再超群,也没办法真正理解数据背后的意义,更没办法用算法逼近真正的目标。他可能会误导很多人,其中首当其冲而不自知的就是它自己。实际上,他应该将这个主循环称为“G0034”之类的没有实际意义的代号,看看它是否能说服自己或其他人,让他们相信G0034实现或理解了某些部分。一旦你看到这一点,你就会在脑子里浮现出种种研究人员会犯的助记法陷阱的例子[46]。”
可悲的是,时至十年后的今天,人工智能工作中还是助记符陷阱的重灾区。其中最严重的泥淖之地便是术语,与人类智能相关的术语。这些术语被用来描述人工智能程序的行为,也用来评估模型的效果和性能。神经网络的灵感来自于人类大脑,但本质上来说他们之间存在很大的差异。机器学习或深度学习方法背后的学习机制,和人类(或者动物)的学习机制存在着天壤之别。事实上,如果一台机器学到了人类意义上的东西,我们希望他能够在不同的环境中运用这些知识。但是,事实证明,情况往往并非如此。在机器学习中,有一个专门的子领域叫做迁移学习,它关注如何让算法能够将他们在某个领域中学习到的东西迁移到新的场景中。而这是人类学习的基础,或者说是与生俱来的能力。显然,机器学习目前无法做到这点——它还不是真正的智能。
事实上,我们在讨论或者评价机器学习能力的方式,也影响了我们对这些能力的客观评价,从而无法为它给出一个合适的位置。具体来说,IBM的一位高管曾经在无意之中谈到McDermott的言论,他说“沃森可以在几秒内阅读世界上所有的医疗保健文本”[47]。而IBM的网站则声称沃森项目能够“理解其中语言的上下文和细微差别”[48]。此外,DeepMind的联合创始人Demis Hassabis告诉我们,“AlphaGo的目标是击败世界上最好的人类玩家,而不仅仅是模仿他们”[49]。ALphaGo的主要研究人员David Silver这样描述了一个现象:“我们在比赛的过程中总是去问AlphaGo,问它觉得它在比赛的过程中表现如何。,但是直到比赛快结束的时候,AlphaGo才认为它将获胜[50]。”
人们可能会争辩说,类似于助记法这样的方法只是方便机器速记而已:IBM的科学家知道沃森并不能像人类那样阅读或理解;DeepMind的科学家知道AlphaGo没有人类那样的目标或者想法,也就没有类似人类的“游戏”或者“胜利”这样的概念。然而,这种速记可能会误导那些试图理解结果的吃瓜群众,从而连带着影响媒体对这些结果的报道。而且这还会潜移默化地改变人类对于AI系统的思考方式,即使是人工智能专家也会受此影响,从而对AI系统与人类智能的相似程度作出错误的判断。
McDermott的“助记法的陷阱”指的是我们用来描述人工智能项目的术语,但研究界也适用助记法的陷阱来命名人工智能的评价方法,评价我们测试人工智能技能的优劣程度。
例如,以下是人工智能子领域中最常用的一些评价方法。在“自然语言处理NLP”领域中,“斯坦福问答数据集[51]“、”RACE阅读理解数据集[52]"和“通用语言理解评估[53]”这三个常用的数据集出现的频率很高。
在所有这些评价标准中,最好的机器算法的性能已经超过了人类(Amazon Mechanical Turk workers)。这就引来了一些媒体的过度宣传,如“新的人工智能模型在回答问题时超越了人类的表现”[54],“计算机在阅读理解方面比人类好[55]",以及“微软的人工智能模型在自然语言理解方面超越了人类”[56]。
考虑到这些评价标准的名称,人们得出这样的结论并不奇怪。但问题是,这些基础实际上并不能衡量回答问题、阅读理解或者自然语言理解的一半能力。这些测试仅仅能够从某些方面来对人工智能的性能进行评价;此外,这些基准中的许多项目是允许机器学习进行捷径学习的。正如前文所述,机器可以利用这些统计相关性的捷径在训练和测试数据集中实现高性能、而无需剖析挖掘和学习到理解任务真正需要的实际技能的[57,58]。虽然机器在这些特定标准上的表现可以超过人类,但人工智能系统仍远未达到人们从基准测试集中所看到的那样神通广大。
谬论四:智能都在大脑中
智能是可以与身体分离的东西,它既可以作为一种非物质的信息存在,也可以完全封装在大脑中。这种观点在哲学和认知科学中有着悠久的历史。
在20世纪中叶的心理学领域中出现了所谓的“心里信息处理模型”。这个模型将大脑视为一种计算机,它有输入、存储、处理和输出信息的能力。在这种理论中,除了在输入(感知)和输出(行为)的阶段之外,四肢和身体几乎没有实际的作用。在这种观点下,认知完全发生在大脑中,理论上,认知与身体的其他部分是分开、独立的。这种观点的一个极端推论是,在未来,我们能够将我们的大脑“上传”到一台计算机中,也能够将人类的认知和意识上传到计算机当中[59]。
“智能在原则上是非实体的”这种假设在历史上几乎所有关于人工智能的工作中都出现过。其中,早起人工智能研究中最具影响力的想法之一是Newell 和Simon的“物理符号系统假说PSSH“,该假说指出:物理符号系统具有一般智能行动必要和充分的手段[60]。其中”物理符号系统“指的是非常类似数字计算机的东西。PSSH假设,通用智能可以在数字计算机中实现,其中不包括大脑或身体的任何非符号的过程。(关于符号过程与此符号过程的讨论,请参见[61]Hofstadter的Waking up from the Bollen Dream)。
Newell和Simon的PSSH是人工智能符号派大营的理论基础,在20世纪90年代和21世纪统计和神经启发的机器学习兴起之前,该领域一直是人工智能领域的领头羊。然而,后一种非符号性的方法也认为身体与智力是没有任何关联的。但是,从20世纪80年代的连接论,再到今天大行其道的深度神经网络,这类神经元启发的方法通常都会假设智力仅仅来源于大脑的结构和动态。今天的深度学习网络类似于谚语中的brain-in-a-vat:它被动地从外界接收数据,输出行为指令,而不在世界中与任何类型的物体主动互动。当然,机器人和自动驾驶的不同之处在于它们在世界上有物理的实体存在,但到目前为止,它们的物理交互方式,对它们“智能“反馈的贡献是相当有限的。
智能仅存在于大脑的这种假设导致了人们的猜测,要实现人类级别的人工智能,我们只需要扩大机器的计算存储单元,以匹配大脑的“计算能力“,然后为这种大脑匹配的“硬件”开发合适的“软件”。例如,一位哲学家曾经写了一份报告,结论是,他认为计算机需要10^15FLOP/s的吞吐量才有可能来执行和人脑类似的任务(但是考虑到实际情况和可行性,这可能有点难)[62]。换句话说,我们不要无脑的肌肉棒子或者无躯干的思想幽灵!
顶尖的人工智能研究人员也同意这一观点,也就是需要扩大硬件的计算能力以匹配大脑的结构,从而实现人类级别的人工智能。例如,深度学习先驱Geoffrey Hinton预测道,“要在人类层面理解语言,我们可能需要人类层面的大脑资源,我们的大脑中有数以亿计的神经元连接。但迄今为止,我们建立的最大的神经网络仅有十亿个连接。所以实际上我们还差了好几个量级,但我相信硬件人员会解决这些问题的。其他人则预测,“硬件终有一天会满足我们的需求,实现人类级别的运算速度和存储容量,而这种硬件最有可能就是量子计算机[64]”
然而,越来越多的研究人员则开始质疑“人工智能仅存在于大脑”这一模型的基础,希望从另一个角度理解和创造人工智能。计算机科学家Rod Brooks在他所著的“计算机隐喻的死胡同(The cul de sac of the computational metaphor)”中认为,“我们之所以被困在这个死胡同里这么久,是因为摩尔定律一直在给我们温水煮青蛙,它总是做出正向但是微小的提升,我们一直在想,哦,人类一直在进步,在进步,在进步。但是我们没有真正想过另辟蹊径来实现更大更快的突破。”[65]。
事实上,几十年来,许多认知科学家一直在主张让人们关注身体在所有认知活动中的中心地位。其中一位杰出的科学家,心理学家Mark Johnson在Embodied Congnition项目中写道,(Embodied Congnition项目是一个在20世纪70年代中期开展的关于具身认知的研究项目),该项目“开始以我们的大脑和身体在我们所经历、思考和执行的一切的核心作用提供证据”[66]。心理学家Rebecca Fincher-Kiefer这样描述了具身认知范式:具身认知意味着概念知识的表征依赖于身体:它是多模态的。它不是非模态的、符号性或者抽象的。这个理论表明,我们的思想是建立在一些基础上的,或者与感知、行动和情感密不可分的联系在一起的,我们的大脑和身体一起工作,以获得感知[67]"。
很多学科也都为这一理论提供了诸多证据。例如,神经科学的研究表明,控制认知的神经结构,与控制感官和运动系统的神经结构密切相关,抽象思维利用了基于身体的神经“地图”[68]。正如神经科学家唐·塔克所指出的,“没有任何大脑部分可以进行非实体感知”[69]。认知心理学和语言学的结果表明,我们的许多抽象概念,几乎都是基于物理的、基于自身的内部模型的[70],还有一部分是由日常语言中发现的基于身体的隐喻系统所揭示的[71]。
其他几个学科,比如发展心理学,也提出了具身认知的证据。然而,人工智能的研究大多忽略了这些结果,尽管有一小群研究人员在被称为“具身人工智能”、“发展机器人学”、“基础语言理解”等的子领域探索这些真理。
与具身认知理论相关的是,伴随着我们深层社会生活的情感和“非理性”的偏见,通常会被认为与智力是分开的,或者阻碍理性的。但实际上它是使智力成为可能的关键。人工智能通常被认为是针对一种“纯粹的智力”,一种独立于如饮食和睡眠等情绪、非理性和生存需求的存在。这种对人工智能的定义在某些方面局限了它的发展,这种纯粹的理性智能可能性的假设是有失偏颇的,很有可能会导致人类对未来“超级智能机器人”的恐慌。
例如,哲学家Nick Bostrom断言,一个系统的智力及其目标是正交的。他认为,“任何水平的智力都可以与任何最终目标结合起来”[72]。例如,Bostrom想象了一个超级人工智能系统,其唯一目标是生产回形针。这个想象出来的超级机器人发明了生产回形针的巧妙的方法,但这个方法消耗了地球上的所有的资源。
人工智能研究员Stuart Russell同意Bostrom关于智能和目标的正交性的观点。“很容易想象,一个通用的人工智能系统能够或多或少地赋予某个任务目标,包括最大限度地增加回形针的数量,或者求取圆周率小数点后的若干若干位的数字[73]。“Russel对此十分担心,因为如果我们不加任何限制地让这种超级智能体来解决问题时,可能会导致很多不可预测的后果:“如果一个超级智能的气候控制系统想要解决全球变暖,降低二氧化碳,但是它发现其中最行之有效的方法是将二氧化碳的排放量降低到第二次工业革命前的水平。而达到这个目的的唯一路径就是将人口减少到零,那它会怎样做呢?(比灭霸还狠,不对……奥、奥创?)”如果我们把错误的目标输入人工智能机器,而它比我们更聪明,那局面很可能就不可控了[74]。
上文中Bostrom和Russel提出的思想实验有着一系列的假设,它们假设人工智能系统是“超级智能”的,是没有任何基本的人类常识的,同时它拥有完美的计算机硬件惊人的运算速度、精度和可编程性。但这些关于超级人工智能的假设,在本质上则会受到智能本质缺陷性的困扰。
在我们的心理学或神经科学知识中,没有任何东西能够在没有情感、没有文化基础也没有人类对于事物的知识管理体系的前提下,达到“纯粹的理性”。相反,我们从具身认知的研究中学到的是,人类的智力似乎是一个由各种错综复杂的、紧密相连的属性所组成的复杂集成系统,其中包括情感、欲望、强烈的自我意识和自主意识,以及对世界的常识性理解。
目前来说,我们还不清楚这些属性是否可以分开。
未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。
如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”