来源:人机与认知实验室
机器有智能吗?机器会理解吗?机器能思考吗?从十七世纪到今,每一次机器功能的重大突破,这问题都被翻出来问一遍,只是否定它变得愈来愈困难了。
Alpha Go与李世石的围棋赛尘埃落地,棋迷和技术派热议之后,哲学思考又来了。海外学术界这次比较淡定,也许早麻木了。语音会话技术,图像辨识和智能服务现在已进入人们的日常生活中,深思者早在人工神经网络开始应用时,重新审视过对AI的哲学认知。国内有些人还认为机器只是傀儡,说这比赛不过是程序员与棋手斗,AI胜过人类是笑话。其哲学根据,主要来自约翰·塞尔的“中文房间”思想实验。
中文房间(Chinese room)是由美国伯克利大学哲学教授约翰·塞尔(John Searle)在1980年设计的一个思想实验(The Chinese Room argument),他的1999年修订版是这样的:
想象如下的情景。有个只知英语完全不懂中文的人,与一箱中文字片(数据库)及如何处理汉字使用字片的英文手册(程序)被锁进一个房间。在房外有不知情的人,塞进字条以中文提问(输入)。房里的人对它按手册指导挑选字片,送出正确回答的字片(输出)。这手册能让房里人,通过了理解中文的图灵测试,但他其实对中文一无所知。
塞尔认为这房里人和人工智能中的电脑,都不必理解输入和输出字符的含义,只是按照规则机械地搬弄字符,就给外面人一种能够理解中文的印象,其实中文房间里的人以及电脑所作所为,都谈不上思维和理解。
这是现代哲学中最著名的思辨之一,他针对是能够通过图灵测试(Turning Test)的机器智能,在哲学界和认知科学上引起了广泛的讨论。现在用Google Scholar 搜索一下“Searle’s Chinese Room”,都有上万条的结果。
中文网上也有一些讨论这个思想实验,有些人热心于设计机器不能恰当回答的问题,想以此证明机器智力不能胜过人类。其实这是对它的误读。塞尔的实验是假定这系统能够通过图灵测试,在这基础之上讨论心智的哲学问题。现在机器智能技术发展,证实了这个哲学思考的前提并非无稽之谈。
让我们更详细地考察这个著名思辨的由来和内涵。
机器能否思考?历史上,莱布尼茨(1646-1716)用磨坊的思想实验(Leibniz’Mill)考察过这个问题。
假如思考和感知的活动能够用数字和机械运动的原理来解释,把这个具有智能的机器尺寸放大许多倍,人就像走进磨坊一样来检查内部,我们只能发现部件间相互的推动,这里没有一个部件能够解释感知,比如说疼痛,那么它们的机械组合也必然是如此。莱布尼茨以此来反对当时盛行的机械决定论,提倡物质和心智的二元论。
信息革命初起,图灵认为思维活动不外乎信息依程序而流动。他设想一个能够下棋的纸上机器(Turing Paper Machine 1948)。
如果有一张纸,写着下棋时所有局面的应对,人们不需要懂棋,只要对照纸上的指示就能下棋。这张纸的内容就是程序,计算机遵照程序运行,也像人类会思考一样能够下棋。
1950年,图灵发表了具有里程碑意义的论文《电脑能思考吗?》,第一次提出“机器思维”的概念。他认为:假如通过电传终端与另一边进行对话,人们无法区分那边是机器还是人类?那么就该承认这机器具有智能。这个测试称为“图灵测试”(Turning Test)。他的主张在认知科学上称为功能主义。
上世纪70年代,计算机开始普及,耶鲁大学的Roger Schank用“概念表示”的技术来分解语句,被认为结合背景知识数据库的AI可以理解英语。塞尔用中文房间思辨反对这种功能主义的智能解读。
塞尔构造的“中文房间”,模仿图灵测试,但继承了莱布尼茨的思辨,考察形成这种智能的每一个构件,在这里除了唯一具有理解力的本人外,其他一切都是没有生命的工具和机械性的操作,却能表现出理解中文的行为,而他其实不懂得中文。所以说这行为只是一种扮演。
中文房间思维实验深思宏观现象中的微观机制和驱动力,不同的微观机制和驱动可能形成相同的宏观现象,图灵认为只要宏观功能与人类的智力行为是相同的,我们可以用智能这个词来描述这个功能。如在围棋赛中,谈的是博弈技艺高低的宏观测试,说机器具有智能并无不可,语言对话也是如此。塞尔则强调它们内在的机制不同和有否表达真正的意向,说这中文房间仅仅是对话功能的模拟,并不具备理解这活动的能力。
塞尔将人工智能分为两类:认为必须能够理解自然语言,并在模仿人类行为时,具有类似心理活动的机器,称为“强人工智能(Strong AI)”;那种只有模仿功能没有思想的机器智能称为“弱人工智能(Weak AI)”。他的强人工智能是足以解释心智活动机制的模型。他在那时相信:研究大脑与研究心智无关,图灵测试不足以确立心理状态;没有理解力或者意向性(intentionality),就不能说机器会思考,因此也就没有通常意义下的思维能力。
塞尔思辨直接的结论是“中文房间实现的不是强人工智能”,一般化的推论是“不可能通过字符操作,从语言形式(syntax)得到语义内容(semantic)”。
哲学表达的是一种思想观念,它的判断无论以真理名义或出自权威都不足为训。哲学不像数学,后者表达是约定的逻辑结果,通过严谨推理,总能辨出是非,它也不像科学那样表达事实,其断言可以被实验证明或否定。哲学的意义在于思辨,通过辩驳剖析,澄清含糊之处,启发对世界的认知。
自1980年起,哲学家科学家就不断地在学术刊物上发表评论,参与讨论,中文房间被广泛地引用。大多数学者不认同塞尔。BBS编辑Stevan Hamad说:“绝大多数人认为中文房间的思辨是完全错误的。”反对中文房间的思辨,依不认同的程度大致分为三大类:系统答复,机器人答复和否定答复。而塞尔几十年来汇编不同意见,犀利地反诘,促进了人们深思。
在早期的答复中,最多是持“系统答复”的观点。他们承认中文房间中的那个操作人不懂中文,但说这并不说明那个房间的系统不能产生对中文的理解。系统的特质并非能够细化区分到某个部件,它是由整体的协同来产生的。塞尔反驳说,机器能说中文,并不意味着它就理解中文。我把房间里的一切包括程序、数据库、说明书都装进头脑里,我就是这个系统。我如计算机一样按程序作答,表现得也像懂中文,但是我自己知道,我仍然不理解中文。
“机器人答复”则同意在中文房间情形下,不能说是理解中文,就像对从来没吃过馒头的西方人,中文数据库怎么讲解馒头,都不如自己看过、闻过、吃过、做过那样地有体会,能真实理解馒头这词的语义。所以他们建议将这机器大脑,装在一个有听觉、视觉、嗅觉、味觉和触觉传感器的机器人身上,让它行走在我们所处的世界里,那么这机器人就有人的感受,也就有了理解力。塞尔认为这看法并不比“系统答复”高明,因为所有这些传感器的感知只不过是一些额外的输入,就如在中文房间,塞进另外一些关于环境世界感受知识的纸条,或这些知识已经被整理存进了数据库,无论如何,在房间中的我,依然是不理解中文。
“否定答复”则完全不认同中文房间的思辨足以否定强人工智能,说塞尔把房间中的一切都装进头脑,引用中文数据库里的知识,能够流利用中文回答问题,这情形就像物理、化学大部分实验我们都没做过,大部分的词汇的含义都是来自书本中别人的经验,可是我们都觉得自己能够理解这些词汇和相关语句,为什么放在同样做法的AI上就不行呢?有一派人甚至认为,塞尔的思辨来自错误的直觉,就像走进莱布尼茨磨坊一样,所见的直观并不能反映宏观现象的本质。例如考察旋转的磁铁人们看不见光的发生,但我们不能因此否定光是电磁波。这个思想实验就像以变慢的时钟走进原子尺度一样,让我们看不到光。以微观的尺度和缓慢的过程,来理解“智能”和“理解”的宏观现象,房里人的直觉往往是错的。塞尔对这些批评,用“意识形态的俘虏”一言以蔽之。他说,不明确地指出是什么样的系统,由什么样的机制能导出心灵,就相信了心灵能从系统中“涌现”出来,完全是一种对自己直觉的盲目自信。
中文房间真正的意义在于心智哲学上的思辨。它是图灵之后被最广泛地讨论的问题,它以哲学清晰和纯净性成为认知科学上的经典。
尽管“中文房间”的思考是针对人工智能,其哲学思辩无比深邃,大多数计算机学家和人工智能专家,却不认为这与他们的工作有关,不觉得AI有什么局限。他们埋头苦干,开发出有不输于人类的语言和图像辨识能力的AI,造出能与人类在棋类一较输赢的机器。对于人工智能,不论它在哲学上归类为弱如僵尸一样没有灵魂,还是强如人类一样有着自己意识,它在许多智力活动中将强于人类不再是猜测了。那么指引这些智能研究的思想,究竟是什么呢?
未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。
如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”