人工智能( AI ) 的历史始于古代,当时有神话、故事和谣言称,人工生物被工匠大师赋予了智慧或意识。从古代到现在,对逻辑和形式推理的研究直接导致了20 世纪 40 年代可编程数字计算机的发明,这是一种基于抽象数学推理的机器。这种设备及其背后的想法启发了科学家开始讨论构建电子大脑的可能性。
人工智能研究领域始于1956 年在达特茅斯学院举行的一次研讨会。 [ 1 ]研讨会的与会者成为数十年来人工智能研究的领导者。他们中的许多人预测,在一代人的时间里,就会出现像人类一样聪明的机器。美国政府提供了数百万美元,希望让这一愿景成为现实。[ 2 ]
最终,很明显研究人员严重低估了这一壮举的难度。[ 3 ] 1974 年,詹姆斯·莱特希尔的批评和美国国会的压力导致美国和英国政府停止资助无方向的人工智能研究。七年后,日本政府的一项富有远见的举措和专家系统的成功 重新激发了对人工智能的投资,到 20 世纪 80 年代末,该行业已发展成为一个价值 10 亿美元的产业。然而,投资者的热情在 20 世纪 90 年代逐渐消退,该领域受到媒体的批评,业界也避之不及(这一时期被称为“人工智能寒冬”)。尽管如此,研究和资金仍在以其他名义继续增长。
21 世纪初期,机器学习被应用于解决学术界和工业界的广泛问题。其成功归功于强大的计算机硬件、海量数据集的收集以及可靠的数学方法的应用。不久之后,深度学习被证明是一项突破性技术,超越了所有其他方法。Transformer架构于 2017 年首次亮相,并被用于制作令人印象深刻的生成式 AI应用程序以及其他用例。2020年代, 对 AI 的投资蓬勃发展。
神话、虚构和推测的前兆
神话和传说
在希腊神话中,塔洛斯是一个青铜巨人,是克里特岛的守护者。他会向入侵者的船只投掷巨石,并每天绕岛三圈。[ 4 ]根据伪阿波罗多洛斯的《图书馆》,赫菲斯托斯在独眼巨人的帮助下锻造了塔洛斯,并将这个自动机作为礼物送给了米诺斯。[ 5 ]在《阿尔戈英雄纪》中,伊阿宋和阿尔戈英雄们通过拔掉塔洛斯脚边的塞子,导致生命体液从他体内流出,使他失去生命,从而击败了他。[ 6 ]
皮格马利翁是希腊神话中的一位传奇国王和雕塑家,在奥维德的《变形记》中以他为代表。在奥维德的叙事诗第十卷中,皮格马利翁目睹了普罗波提得斯卖淫的方式,对女人产生了厌恶。尽管如此,他还是向维纳斯神庙献祭,请求女神为他带来一个和他雕刻的雕像一样的女人。[ 7 ]
中世纪关于人造生物的传说
歌德《浮士德》中的侏儒形象
在《万物之性》一书中,瑞士炼金术士帕拉塞尔苏斯描述了一种他声称可以制造“人造人”的方法。将“人类精子”放入马粪中,并在 40 天后给它喂食“人类血液的奥秘”,混合物就会变成一个活生生的婴儿。[ 8 ]
关于制作傀儡的最早书面记录出现在13 世纪早期沃尔姆斯的 Eleazar ben Judah的著作中。 [ 9 ]在中世纪,人们相信通过将一张写有任意神的名字的纸塞进泥人嘴里,就能让傀儡动起来。 [ 10 ]与传说中的黄铜头像等自动机不同,[ 11 ]傀儡不会说话。[ 12 ]
Takwin,即人工创造生命,是伊斯玛仪派炼金术手稿中经常出现的主题,尤其是贾比尔·伊本·哈扬所著的那些。伊斯兰炼金术士试图通过他们的工作创造各种各样的生命,从植物到动物。 [ 13 ]
在约翰·沃尔夫冈·冯·歌德的《浮士德:悲剧的第二部分》中,一个通过炼金术制造出来的小矮人注定要永远活在制造他的烧瓶里,他努力想要获得一个完整的人类身体。然而,在开始这一转变时,烧瓶破碎了,小矮人也死了。[ 14 ]
现代小说
[编辑]到了 19 世纪,关于人工智能和思维机器的想法成为科幻小说的热门主题。玛丽·雪莱的《科学怪人》 和卡雷尔·恰佩克的《罗素姆万能机器人》[ 15 ] 等著名作品探讨了人工生命的概念。塞缪尔·巴特勒的《机器中的达尔文》[ 16 ]和埃德加·爱伦·坡的《梅尔泽尔的棋手》[ 17 ]等思辨性文章反映了社会对人工智能机器日益增长的兴趣。人工智能在当今科幻小说中仍然是一个常见主题。[ 18 ]
自动机
Al-Jazari的可编程自动机(公元 1206 年)
现实的人形自动机是由来自许多文明的工匠建造的,包括Yan Shi、[ 19 ] 亚历山大英雄、[ 20 ] Al-Jazari、[ 21 ] Haroun al-Rashid、[ 22 ] Jacques de Vaucanson、[ 23 ] [ 24 ] 莱昂纳多·托雷斯·奎维多,[ 25 ] 皮埃尔雅克德罗 (Jaquet-Droz)和沃尔夫冈·冯·肯佩伦 (Wolfgang von Kempelen)。[ 26 ] [ 27 ]
已知最古老的自动机是古埃及和希腊的圣像。[ 28 ] [ 29 ]信徒们相信工匠给这些雕像注入了非常真实的思想,使其具有智慧和情感——赫尔墨斯·特里斯梅吉斯托斯写道:“通过发现众神的真实本质,人类已经能够复制它。” [ 30 ]英国学者亚历山大·内克汉姆断言,古罗马诗人维吉尔曾建造过一座带有自动机雕像的宫殿。[ 31 ]
在近代,这些传说中的自动机被认为拥有神奇的能力,可以回答人们向它们提出的各种问题。据称,中世纪晚期的炼金术士和原始新教徒罗杰·培根曾制作了一个铜头,并编造了一个传说,说他是一名巫师。[ 32 ] [ 33 ]这些传说类似于北欧神话中的密米尔之首。根据传说,密米尔以聪明才智而闻名,在阿萨神族-华纳神族战争中被斩首。据说奥丁用草药“腌制”了密米尔的头颅,并对着它念咒语,这样密米尔的头颅仍然能够向奥丁传达智慧。随后,奥丁把头放在身边,以寻求建议。[ 34 ]
形式推理
[编辑]人工智能基于这样一个假设:人类思维过程可以机械化。对机械推理(或“形式推理”)的研究历史悠久。公元前一千年,中国、印度和希腊哲学家都开发了结构化的形式推理方法。几个世纪以来,他们的思想得到了亚里士多德(对三段论进行了形式分析)[ 35 ] 、欧几里得(其《几何原本》是形式推理的典范)、花拉子密(开发了代数,并以自己的名字命名了算法一词)等哲学家以及奥卡姆的威廉和邓斯·司各特等欧洲经院哲学家的发展。[ 36 ]
西班牙哲学家拉蒙·卢尔 (Ramon Llull , 1232–1315) 发明了几种逻辑机器,致力于通过逻辑手段产生知识。[ 37 ] [ 38 ]卢尔将他的机器描述为机械实体,这些机器可以通过简单的逻辑运算将基本的、不可否认的事实结合起来,这些事实由机器通过机械意义产生,从而产生所有可能的知识。[ 39 ]卢尔的工作对戈特弗里德·莱布尼茨产生了很大的影响,莱布尼茨重新发展了他的思想
17 世纪,莱布尼茨、托马斯·霍布斯和勒内·笛卡尔探索了所有理性思维都可以像代数或几何一样系统化的可能性。[ 41 ] 霍布斯在《利维坦》中有一句名言:“因为理性……不过是计算,就是加减”。[ 42 ] 莱布尼茨设想了一种通用的推理语言,即charactera universalis,它将论证简化为计算,这样“两个哲学家之间就不需要争论了,就像两个会计师之间不需要争论一样。因为他们只要拿起铅笔,放到石板上,对彼此说(如果他们愿意,可以请一位朋友作证):让我们来算一算就行了”。[ 43 ]这些哲学家已经开始阐明物理符号系统假说,该假说将成为人工智能研究的指导信念。
数理逻辑研究提供了人工智能看似可行的根本性突破。数学逻辑的基础由布尔的《思维定律》和弗雷格的《概念文》等著作奠定。[ 44 ]在弗雷格体系的基础上,罗素和怀特海在 1913 年的巨作《数学原理》中对数学基础进行了形式化处理。受到罗素成功的启发,大卫·希尔伯特向 20 世纪 20 年代和 30 年代的数学家们发起挑战,要求他们回答这个基本问题:“所有的数学推理都能形式化吗?” [ 36 ]他的问题得到了哥德尔的不完备性证明[ 45 ] 、图灵的机器[ 45 ]和丘奇的Lambda 演算的回答。
他们的答案在两个方面令人惊讶。首先,他们证明了数理逻辑所能实现的目标实际上是有极限的。其次(这对人工智能来说更为重要),他们的工作表明,在这些极限之内,任何形式的数学推理都可以机械化。丘奇-图灵论题意味着,一个机械装置,通过对0和1这样简单的符号进行混洗,可以模仿任何可以想象的数学推理过程。[ 45 ]关键的洞见是图灵机——一种简单的理论构造,抓住了抽象符号操控的本质。[ 48 ]这项发明启发了少数科学家开始讨论思考机器的可能性。
计算机科学
[编辑]计算机器在古代和历史上由许多人设计和制造过,其中包括 戈特弗里德·莱布尼茨[ 38 ] [ 49 ] 约瑟夫·玛丽·雅卡尔[ 50 ]查尔斯 ·巴贝奇[ 50 ] [ 51 ]珀西 ·路德盖特[ 52 ] 列奥纳多·托雷斯·克维多[ 53 ]万 尼瓦尔·布什[ 54 ] 等。艾达·洛夫莱斯推测巴贝奇的机器是“一台思考或......推理的机器”,但她警告说“最好防止对机器能力产生夸大的想法”。[ 55 ] [ 56 ]
第一批现代计算机是第二次世界大战时期的巨型机器(如康拉德·楚泽的Z3、阿兰·图灵的希思·罗宾逊和巨人、阿塔纳索夫和贝里的计算机以及宾夕法尼亚大学的ABC和ENIAC)。[ 57 ] ENIAC基于阿兰·图灵奠定的理论基础,由约翰·冯·诺依曼开发,[ 58 ]并被证明是最具影响力的。
人工智能的诞生(1941-56)
IBM ]:第一代人工智能研究人员使用的计算机。
最早对思维机器的研究受到 20 世纪 30 年代末、40 年代和 50 年代初流行的各种思想的启发。神经学领域的最新研究表明,大脑是一个神经元的电子网络,以全有或全无的脉冲发射。诺伯特·维纳的控制论描述了电子网络的控制和稳定性。克劳德·香农的信息论描述了数字信号(即全有或全无信号)。阿兰·图灵的计算理论表明,任何形式的计算都可以用数字方式描述。这些思想之间的密切关系表明,构建一个“电子大脑”是可能的。
20 世纪 40 至 50 年代,来自不同领域(数学、心理学、工程学、经济学和政治学)的少数科学家探索了几个对后来的人工智能研究至关重要的研究方向。[ 59 ]阿兰·图灵是第一批认真研究“机器智能”理论可能性的人之一。[ 60 ] “人工智能研究”领域于 1956 年作为一门学科成立。
图灵测试
1950 年,图灵发表了具有里程碑意义的论文《计算机器与智能》,在文中他推测了创造出能够思考的机器的可能性。[ 63 ] [ b ]在论文中,他指出“思考”很难定义,并设计了著名的图灵测试:如果一台机器能够与人类进行的对话(通过电传打字机),且对话内容与人类对话难以区分,那么就可以合理地说该机器在“思考”。[ 64 ]这个简化的问题版本让图灵能够令人信服地论证说“思考机器”至少是可行的,而这篇论文回答了对这个命题最常见的所有反对意见。[ 65 ]图灵测试是人工智能哲学中第一个严肃的提议。
人工神经网络
[编辑]1943 年,沃尔特·皮茨和沃伦·麦卡洛克分析了理想化的人工神经元网络,并展示了它们如何执行简单的逻辑功能。他们首次描述了后来研究人员所说的神经网络。[ 66 ]这篇论文受到了图灵 1936 年论文《论可计算数》的影响,使用了类似的双状态布尔“神经元”,但他们首次将其应用于神经元功能。[ 60 ]受皮茨和麦卡洛克启发的学生之一是当时 24 岁的研究生马文·明斯基。1951 年,明斯基和迪安·埃德蒙兹建造了第一个神经网络机器SNARC。[ 67 ]明斯基后来成为人工智能领域最重要的领导者和创新者之一。
控制论机器人
[编辑]20 世纪 50 年代, W. Grey Walter的海龟机器人和约翰霍普金斯大学的野兽机器人等实验性机器人被制造出来。这些机器不使用计算机、数字电子或符号推理,而是完全由模拟电路控制。[ 68 ]
游戏人工智能
1951 年,克里斯托弗·斯特雷奇 (Christopher Strachey ) 使用曼彻斯特大学的Ferranti Mark 1机器编写了一个跳棋程序[ 69 ],迪特里希·普林茨 (Dietrich Prinz)编写了一个国际象棋程序。[ 70 ]阿瑟·塞缪尔 (Arthur Samuel ) 的跳棋程序是他 1959 年论文“使用跳棋游戏进行机器学习的一些研究”的主题,该程序最终达到了足以挑战受人尊敬的业余爱好者的水平。[ 71 ]塞缪尔的程序是后来被称为机器学习的最早用途之一。[ 72 ]在整个人工智能发展历史上,游戏人工智能将继续被用作衡量人工智能进步的标准。
符号推理和逻辑理论家
赫伯特·西蒙 (左) 与艾伦·纽厄尔进行国际象棋比赛,约 1958 年
20 世纪 50 年代中期,数字计算机问世,一些科学家本能地意识到,能够操纵数字的机器也能操纵符号,而操纵符号很可能就是人类思维的本质。这是创造思维机器的新方法。[ 73 ] [ 74 ]
1955 年,艾伦·纽厄尔和未来的诺贝尔奖获得者赫伯特·西蒙在JC Shaw的帮助下创建了“逻辑理论家” 。该程序最终证明了罗素和怀特海的《数学原理》中前 52 条定理中的 38 条,并为其中一些定理找到了新的、更优雅的证明。[ 75 ]西蒙说,他们“解决了古老的身心问题,解释了由物质组成的系统如何具有心灵的属性。” [ 76 ] [ c ]他们引入的符号推理范式主宰了 90 年代中期之前的人工智能研究和资助,并激发了认知革命。
达特茅斯研讨会
1956 年的达特茅斯研讨会是一个关键事件,标志着人工智能正式成为一门学科。[ 61 ]该研讨会由马文·明斯基和约翰·麦卡锡组织, IBM的两位资深科学家克劳德·香农和内森·罗切斯特也提供了支持。 会议提案指出,他们打算验证以下断言:“学习的每个方面或任何其他智能特征都可以得到如此精确的描述,以至于可以让机器对其进行模拟”。[ 77 ] [ d ] “人工智能”一词由约翰·麦卡锡在研讨会上提出。[ e ] 参会者包括雷·所罗门诺夫、奥利弗·塞尔弗里奇、特伦查德·莫尔、亚瑟·塞缪尔、艾伦·纽厄尔和赫伯特·A·西蒙,他们都将在人工智能研究的最初几十年创建重要的程序。[ 83 ] [ f ]在研讨会上,纽厄尔和西蒙首次提出了“逻辑理论家”的概念。[ 84 ]这次研讨会标志着人工智能获得了它的名字、使命、首次重大成功和关键参与者,被广泛认为是人工智能的诞生。[ g ]
认知革命
1956 年秋,纽厄尔和西蒙还在麻省理工学院(MIT) 信息理论特别兴趣小组的一次会议上介绍了《逻辑理论家》。在同一次会议上,诺姆·乔姆斯基讨论了他的生成语法,乔治·米勒描述了他具有里程碑意义的论文《神奇的数字七,加或减二》。米勒写道:“我离开研讨会时,带着一种直觉而非理性的信念,即实验心理学、理论语言学和认知过程的计算机模拟都是更大整体的一部分。” [ 86 ] [ 57 ]
这次会议是“认知革命”的开端——心理学、哲学、计算机科学和神经科学之间的跨学科范式转变。它启发了符号人工智能、生成语言学、认知科学、认知心理学、认知神经科学等子领域的创立,以及计算主义和功能主义等哲学流派。所有这些领域都使用相关工具来模拟思维,在一个领域发现的结果与其他领域相关。
认知方法允许研究人员考虑“心理对象”,如想法、计划、目标、事实或记忆,这些对象通常使用功能网络中的高级符号进行分析。早期的行为主义范式曾将这些对象视为“不可观察的”,因此禁止使用这些对象。[ h ]符号心理对象将成为未来几十年人工智能研究和资助的主要焦点。
达特茅斯研讨会之后的几年里,计算机开发的程序对大多数人来说简直是“惊人的”:[ i ]计算机可以解决代数应用题、证明几何定理,还可以学习说英语。当时几乎没有人相信机器能够表现出如此“智能”的行为。[ 90 ] [ 91 ] [ 89 ]研究人员在私下和公开场合都表达了强烈的乐观态度,预测完全智能的机器将在不到 20 年的时间内诞生。[ 92 ]国防高级研究计划局(DARPA,当时称为“ARPA”)等政府机构向该领域投入了大量资金。[ 93 ] 20 世纪 50 年代末和 60 年代初,许多英国和美国大学建立了人工智能实验室。
20 世纪 50 年代末到 60 年代,出现了许多成功的项目和新方向。其中最有影响力的是:
推理、规划和解决问题作为搜索
[编辑]许多早期的人工智能程序使用相同的基本算法。为了实现某个目标(比如赢得游戏或证明定理),它们一步一步地朝着目标前进(通过移动或推论),就像在迷宫中搜索一样,一旦走到死胡同就回溯。 [ 94 ]主要的困难在于,对于许多问题来说,穿过“迷宫”的可能路径数量是天文数字(这种情况被称为“组合爆炸”)。研究人员会使用启发式方法来减少搜索空间,从而消除不太可能导致解决方案的路径。[ 95 ]
纽厄尔和西蒙试图在一个名为“通用问题求解器”的程序中捕捉到这个算法的通用版本。[ 96 ] [ 97 ]其他“搜索”程序能够完成令人印象深刻的任务,比如解决几何和代数问题,比如赫伯特·格林特的几何定理证明器(1958 年)[ 98 ]和明斯基的学生詹姆斯·斯拉格尔在 1961 年编写的符号自动积分器(SAINT)。[ 99 ] [ 100 ]其他程序通过搜索目标和子目标来规划行动,比如斯坦福大学开发的用于控制机器人Shakey行为的STRIPS系统。[ 101 ]
自然语言
人工智能研究的一个重要目标是让计算机能够用英语等自然语言进行交流。早期的成功是Daniel Bobrow的程序STUDENT,它可以解决高中代数应用题。[ 102 ]
语义网络将概念(例如“房子”、“门”)表示为节点,将概念之间的关系表示为节点之间的链接(例如“has-a”)。第一个使用语义网络的人工智能程序是由 Ross Quillian 编写的[ 103 ],最成功(也是最有争议)的版本是Roger Schank的概念依赖理论。[ 104 ]
Joseph Weizenbaum的ELIZA可以进行非常逼真的对话,以至于用户有时会误以为他们正在与人类而不是计算机程序进行交流(参见ELIZA 效应)。但事实上,ELIZA 只是给出了预设的回复或重复了别人对它说的话,用一些语法规则重新措辞。ELIZA 是第一个聊天机器人。[ 105 ] [ 106 ]
微观世界
[编辑]20 世纪 60 年代末,麻省理工学院人工智能实验室的马文·明斯基和西摩·帕普特提出,人工智能研究应该关注被称为“微观世界”的人工简单情况。[ j ]他们指出,在物理学等成功的科学领域,使用无摩擦平面或完全刚体等简化模型往往能最好地理解基本原理。大部分研究都集中在“积木世界”上,它由排列在平面上、形状和大小各异的彩色积木组成。[ 107 ]
这种模式促成了杰拉德·萨斯曼、阿道夫·古兹曼、大卫·华尔兹(发明了“约束传播”),尤其是帕特里克·温斯顿在机器视觉领域的创新工作。与此同时,明斯基和帕普特制造了一只可以堆叠积木的机械臂,让积木世界变得生动起来。特里·温诺格拉德的SHRDLU可以用普通的英语句子来交流微观世界,规划操作并执行它们。[ 107 ]
感知器和早期神经网络
20 世纪 60 年代,资金主要用于研究符号人工智能的实验室,但仍有少数人从事神经网络研究。
Mark 1 感知器。
感知器是一种单层神经网络,由弗兰克·罗森布拉特(Frank Rosenblatt)于 1958 年发明[ 108 ] (他曾是马文·明斯基在布朗克斯科学高中的同学)。[ 109 ]像大多数人工智能研究人员一样,他对感知器的能力持乐观态度,预测感知器“最终可能能够学习、做出决策和翻译语言”。[ 110 ]罗森布拉特的研究主要由海军研究办公室资助。[ 111 ]
Bernard Widrow和他的学生Ted Hoff构建了ADALINE (1960) 和MADALINE (1962),它们的权重可调至 1000 个。[ 112 ] [ 113 ]斯坦福研究所的Charles A. Rosen和 Alfred E. (Ted) Brain领导的团队构建了两台神经网络机器,分别名为 MINOS I (1960) 和 II (1963),主要由美国陆军通信兵团资助。MINOS II [ 114 ]有 6600 个可调权重,[ 115 ]由SDS 910 计算机控制,配置为 MINOS III (1968),它可以对军队地图上的符号进行分类,并识别Fortran 编码表上的手写字符。[ 116 ] [ 117 ]这一早期阶段的大部分神经网络研究都涉及构建和使用定制硬件,而不是在数字计算机上进行模拟。[ k ]
然而,部分由于缺乏成果,部分由于来自符号人工智能研究的竞争,MINOS 项目在 1966 年耗尽了资金。罗森布拉特在 20 世纪 60 年代未能获得持续的资金。[ 118 ] 1969 年,随着明斯基和帕普特1969 年出版的《感知器》一书,研究突然停止了。[ 119 ]这本书表明感知器的功能存在严重的局限性,而罗森布拉特的预测被严重夸大了。这本书的影响是,10 年来几乎没有任何研究获得联结主义的资助。[ 120 ]随着符号人工智能方法战胜神经网络,政府资金的竞争结束了。[ 117 ] [ 118 ]
明斯基(曾参与SNARC的开发)成为纯联结主义人工智能的坚定反对者。威德罗(曾参与ADALINE 的开发)转向自适应信号处理。SRI团队(曾参与MINOS的开发)转向符号人工智能和机器人技术。[ 117 ] [ 118 ]
主要问题是无法训练多层网络(反向传播的版本已经在其他领域使用,但这些研究人员并不知道)。[ 121 ] [ 120 ]人工智能界在 80 年代意识到了反向传播,[ 122 ]而在 21 世纪,神经网络将获得巨大成功,实现罗森布拉特的所有乐观预测。然而,罗森布拉特没有活着看到这一刻,因为他在 1971 年的一次划船事故中丧生。[ 123 ]
乐观
第一代人工智能研究人员对他们的工作做出了以下预测:
- 1958 年,H.A.西蒙和艾伦·纽厄尔:“十年之内,数字计算机将成为世界国际象棋冠军”和“十年之内,数字计算机将发现并证明一个重要的新数学定理。” [ 124 ]
- 1965 年,HA西蒙:“二十年之内,机器将能够做人类所能做的任何工作。” [ 125 ]
- 1967 年,马文·明斯基 (Marvin Minsky):“在一代人的时间内......创造‘人工智能’的问题将得到实质性解决。” [ 126 ]
- 1970 年,马文·明斯基(在《生活》杂志上):“3 到 8 年后,我们将创造出具有普通人类智能的机器。” [ 127 ] [ l ]
融资
1963 年 6 月,麻省理工学院从新成立的高级研究计划局(ARPA,后来称为DARPA)获得了 220 万美元的资助。这笔钱被用来资助MAC 项目,该项目吸收了明斯基和麦卡锡五年前创立的“人工智能小组” 。直到 70 年代,DARPA 每年仍继续提供 300 万美元。[ 130 ] DARPA 还向卡内基梅隆大学的纽厄尔和西蒙的项目以及约翰·麦卡锡于 1963 年创建的斯坦福大学人工智能实验室提供了类似的资助。 [ 131 ]另一个重要的人工智能实验室由唐纳德·米奇于 1965 年在爱丁堡大学建立。[ 132 ]这四个机构多年来一直是学术界人工智能研究和资助的主要中心。[ 133 ] [ m ]
这笔资金没有附加任何条件:时任 ARPA 主任的JCR Licklider认为,他的组织应该“资助人,而不是资助项目!”并允许研究人员探索他们感兴趣的任何方向。 [ 135 ] 这在麻省理工学院创造了一种自由的氛围,催生了黑客文化,[ 136 ]但这种“不插手”的做法并没有持续太久。
第一个人工智能寒冬(1974-1980)
20 世纪 70 年代,人工智能饱受批评和财政挫折。人工智能研究人员未能认识到他们所面临问题的难度。他们过度乐观,让公众对人工智能的期望值高得难以置信,而当承诺的结果未能实现时,针对人工智能的资金就大幅减少。[ 137 ]缺乏成功表明,当时人工智能研究人员使用的技术不足以实现他们的目标。[ 138 ] [ 139 ]
然而,这些挫折并没有影响该领域的发展和进步。资金削减只影响了少数几个主要实验室[ 140 ],批评基本上被忽视了。[ 141 ]公众对该领域的兴趣持续增长,[ 140 ]研究人员的数量急剧增加,[ 140 ]在逻辑编程、常识推理和许多其他领域探索了新的想法。历史学家托马斯·黑格 (Thomas Haigh) 在 2023 年认为没有冬天,[ 140 ]人工智能研究员尼尔斯·尼尔森 (Nils Nilsson)将这一时期描述为从事人工智能工作最“激动人心”的时期。[ 142 ]
问题
20 世纪 70 年代初期,人工智能程序的能力十分有限。即便是最出色的程序也只能解决其需要解决的问题的简单版本;[ n ]从某种意义上说,所有程序都只是“玩具”。[ 144 ]人工智能研究人员开始遇到几个直到几十年后才被克服的限制,而其他一些限制在 2020 年代仍然阻碍着该领域的发展:
- 计算机能力有限:没有足够的内存或处理速度来完成任何真正有用的事情。 [ o ]例如:罗斯·奎利安 (Ross Quillian) 在自然语言方面的成功工作仅用了 20 个单词的词汇量来证明,因为这是内存中所能容纳的全部。 [ 146 ] 汉斯·莫拉维克 (Hans Moravec)在 1976 年指出,计算机的能力仍然比智能弱数百万倍。他提出了一个类比:人工智能需要计算机能力,就像飞机需要马力一样。低于某个阈值,这是不可能的,但随着功率的增加,最终会变得容易。“有了足够的马力,”他写道,“任何东西都能飞起来”。 [ 147 ] [ p ]
- 难解性和组合爆炸:1972 年,理查德·卡普(基于斯蒂芬·库克1971 年的定理)表明,许多问题只能在指数时间内解决。寻找这些问题的最优解需要大量的计算机时间,除非问题很简单。这一限制适用于所有使用搜索树的符号 AI 程序,这意味着 AI 使用的许多“玩具”解决方案永远无法扩展到有用的系统。 [ 143 ] [ 139 ]
- 莫拉维克悖论:早期的人工智能研究非常成功地让计算机执行“智能”任务,如证明定理、解决几何问题和下棋。它们在这些智能任务上的成功使它们相信,智能行为的问题已基本得到解决。 [ 149 ] [ 150 ]然而,它们在“非智能”任务上却毫无进展,如识别人脸或不撞到任何东西地穿过房间。 [ 149 ] [ 151 ]到了 20 世纪 80 年代,研究人员意识到符号推理完全不适合这些感知和感觉运动任务,而且这种方法有局限性。 [ 150 ]
- 常识知识的广度:许多重要的人工智能应用,如视觉或自然语言,都需要大量有关世界的信息:程序需要对它可能看到的或谈论的内容有所了解。这就要求程序了解孩子对世界的大部分了解。研究人员很快发现,这是一个庞大的信息量,包含数十亿个原子事实。1970 年,没有人能够建立足够大的数据库,也没有人知道程序如何学习如此多的信息。[ 152 ]
- 表示常识推理:当研究人员尝试使用形式逻辑或符号表示常识推理时,出现了许多相关问题[ q ] 。对非常普通的推理的描述往往随着研究的深入而变得越来越长,因为需要越来越多的例外、澄清和区别。 [ r ]然而,当人们思考普通概念时,他们并不依赖于精确的定义,而是似乎做出了数百个不精确的假设,并在必要时使用他们的全部常识知识来纠正它们。杰拉尔德·萨斯曼观察到“使用精确的语言来描述本质上不精确的概念并不能使它们变得更精确。” [ 153 ]
资金减少
英国政府、美国国防部高级研究计划局(DARPA)和美国国家研究委员会(NRC)等资助人工智能研究的机构对缺乏进展感到沮丧,最终切断了几乎所有无方向人工智能研究的资金。这种模式始于 1966 年,当时自动语言处理咨询委员会(ALPAC)的报告批评了机器翻译工作。在花费 2000 万美元后,NRC终止了所有支持。[ 154 ] 1973 年,莱特希尔关于英国人工智能研究状况的报告批评人工智能未能实现其“宏伟目标”,并导致该国人工智能研究的瓦解。[ 155 ](该报告特别提到组合爆炸问题是人工智能失败的原因。)[ 139 ] [ 143 ] [ s ] DARPA 对卡内基梅隆大学语音理解研究项目的研究人员深感失望,取消了每年 300 万美元的拨款。[ 157 ] [ t ]
汉斯·莫拉维克将这场危机归咎于同事们不切实际的预测。“许多研究人员陷入了日益夸张的网络。” [ 158 ] [ u ]然而,还有另一个问题:自1969 年《曼斯菲尔德修正案》通过以来, DARPA一直面临越来越大的压力,要求其资助“以任务为导向的直接研究,而不是基础的无方向研究”。60 年代进行的创造性、自由探索的资金不会来自 DARPA,而是将资金用于具有明确目标的特定项目,例如自动坦克和战斗管理系统。[ 159 ] [ v ]
主要实验室(麻省理工学院、斯坦福大学、卡内基梅隆大学和爱丁堡大学)一直得到政府的慷慨支持,当政府取消支持时,这些实验室是唯一受到预算削减严重影响的地方。这些机构之外的数千名研究人员以及加入该领域的数千名研究人员并未受到影响。[ 140 ]
哲学和伦理批判
一些哲学家对人工智能研究人员的主张提出了强烈的反对意见。最早的一位是约翰·卢卡斯,他认为哥德尔不完备定理表明,形式系统(如计算机程序)永远无法看到某些陈述的真实性,而人类可以。[ 161 ] 休伯特·德雷福斯嘲笑 20 世纪 60 年代的失信,并批评了人工智能的假设,认为人类推理实际上只涉及很少的“符号处理”,而大量是体现的、本能的、无意识的“知识”。[ w ] [ 163 ] 约翰·塞尔于 1980 年提出的中文房间论证试图表明,不能说程序“理解”它使用的符号(这种品质称为“意向性”)。塞尔认为,如果符号对机器没有意义,那么机器就不能被描述为“思考”。[ 164 ]
这些批评并没有得到人工智能研究人员的重视。像难解性和常识性这样的问题似乎更为紧迫和严重。尚不清楚“技术诀窍”或“意向性”对实际的计算机程序有何影响。麻省理工学院的明斯基在谈到德雷福斯和塞尔时说:“他们误解了,应该被忽视。” [ 165 ]同样在麻省理工学院任教的德雷福斯受到了冷遇:他后来说,人工智能研究人员“不敢让人看到他们和我一起吃午饭。” [ 166 ] ELIZA的作者约瑟夫·魏泽鲍姆也直言不讳地批评了德雷福斯的立场,但他“故意表明[他的人工智能同事对待德雷福斯的方式]不是对待人类的方式”,[ x ]并且不专业且幼稚。[ 168 ]
当肯尼斯·科尔比基于 ELIZA编写了一个“可以进行心理治疗对话的计算机程序”时,魏泽鲍姆开始对人工智能产生了严重的伦理怀疑。 [ 169 ] [ 170 ] [ y ]魏泽鲍姆对科尔比将一个没有思想的程序视为一种严肃的治疗工具感到不安。一场争执开始了,当科尔比没有为魏泽鲍姆对该程序的贡献给予认可时,情况并没有得到改善。1976 年,魏泽鲍姆出版了《计算机的力量与人类理性》,认为滥用人工智能可能会贬低人类的生命。[ 172 ]
斯坦福大学、卡内基梅隆大学和爱丁堡大学的逻辑学
逻辑早在 1958 年就被引入人工智能研究,由约翰·麦卡锡 (John McCarthy)在其Advice Taker提案中引入。[ 173 ] [ 98 ] 1963 年,J.艾伦·罗宾逊 (J. Alan Robinson)发现了一种在计算机上实现推理的简单方法,即归结和统一算法。[ 98 ]然而,像麦卡锡和他的学生在 20 世纪 60 年代末尝试的那些直接的实现尤其难以处理:程序需要大量步骤来证明简单的定理。[ 173 ] [ 174 ] 20 世纪 70 年代,爱丁堡大学的罗伯特·科瓦尔斯基 (Robert Kowalski)开发了一种更有成效的逻辑方法,很快这促成了他与法国研究人员Alain Colmerauer和Philippe Roussel [ fr ]合作,他们创建了成功的逻辑编程语言Prolog。[ 175 ] Prolog 使用逻辑的一个子集(霍恩子句,与“规则”和“生成规则”密切相关),允许进行易处理的计算。规则将继续发挥影响力,为爱德华·费根鲍姆的专家系统以及艾伦·纽厄尔和赫伯特·A·西蒙的持续工作奠定了基础,这些工作导致了Soar及其统一的认知理论。[ 176 ]
逻辑方法的批评者如德雷福斯一样指出,人类在解决问题时很少使用逻辑。彼得·沃森、埃莉诺·罗斯、阿莫斯·特沃斯基、丹尼尔·卡尼曼等心理学家的实验提供了证据。[ z ]麦卡锡回应说,人们做什么并不重要。他认为,真正需要的是能够解决问题的机器,而不是像人一样思考的机器。[ aa ]
麻省理工学院的“反逻辑”方法
批评麦卡锡方法的人中包括他在麻省理工学院的同事。马文·明斯基、西摩·帕普特和罗杰·尚克试图解决“故事理解”和“物体识别”等问题,这些问题需要机器像人一样思考。为了使用“椅子”或“餐厅”等普通概念,他们必须做出与人类通常所做的相同的不合逻辑的假设。不幸的是,这些不精确的概念很难用逻辑来表示。麻省理工学院选择专注于编写解决给定任务的程序,而无需使用高级抽象定义或一般认知理论,并通过迭代测试而不是从第一原理论证来衡量性能。尚克将他们的“反逻辑”方法描述为粗制滥造,与麦卡锡、科瓦尔斯基、费根鲍姆、纽厄尔和西蒙使用的简洁范式形成鲜明对比。[ 177 ] [ ab ]
1975 年,明斯基在一篇开创性的论文中指出,他的许多同行研究员都在使用同一种工具:一个能捕捉我们对某事物的所有常识性假设的框架。例如,如果我们使用鸟的概念,一系列事实会立即浮现在脑海中:我们可能会假设它会飞、吃虫子等等(这些假设并不适用于所有鸟类)。明斯基将这些假设与一般类别联系起来,子类别和个体的框架可以继承这些假设,或者在必要时覆盖它们。他将这些结构称为框架。尚克使用一种他称之为“脚本”的框架版本,成功地回答了关于英文短篇小说的问题。[ 178 ]框架最终被广泛应用于软件工程,被称为面向对象编程。
逻辑学家们接受了挑战。帕特·海耶斯声称,“大多数‘框架’只是一阶逻辑部分的新语法。”但他指出,“有一两个看似微不足道的细节会带来很多麻烦,尤其是默认值”。[ 179 ]
雷·赖特承认,“传统逻辑,如一阶逻辑,缺乏充分表达推理所需知识的表达能力”。[ 180 ]他建议用一个封闭世界假设来增强一阶逻辑,即如果不能证明结论的反面,则结论默认成立。他展示了这种假设如何与框架推理中的常识假设相对应。他还表明,它在Prolog中有“程序等价物”,即否定失败。赖特所表述的封闭世界假设“不是一阶概念。(它是一个元概念。)” [ 180 ]然而,基思·克拉克表明,否定作为有限失败可以理解为在一阶逻辑中隐式地使用定义进行推理,包括一个唯一名称假设,即不同的术语表示不同的个体。[ 181 ]
在 20 世纪 70 年代末和整个 80 年代,人们开发了各种逻辑和一阶逻辑的扩展,用于解决逻辑编程中否定的失败问题以及更普遍的默认推理。这些逻辑统称为非单调逻辑。
繁荣(1980-1987)
20 世纪 80 年代,一种名为“专家系统”的人工智能程序被世界各地的公司采用,知识成为主流人工智能研究的重点。各国政府提供了大量资金,例如日本的第五代计算机项目和美国的战略计算计划。“总体而言,人工智能产业从 1980 年的几百万美元发展到 1988 年的数十亿美元。”
专家系统得到广泛应用
专家系统是一种程序,它使用从专家知识中得出的逻辑规则,回答问题或解决有关特定知识领域的问题。 [ 182 ] 最早的例子是由Edward Feigenbaum和他的学生开发的。1965年开始开发的Dendral通过光谱仪读数识别化合物。[ 183 ] [ 120 ] 1972 年开发的MYCIN用于诊断传染性血液疾病。 [ 122 ]他们证明了该方法的可行性。
专家系统将自己限制在一小块特定知识领域(从而避免了常识性知识问题)[ 120 ],其简单的设计使得程序的构建和修改变得相对容易。总而言之,这些程序被证明是有用的:这是人工智能迄今为止无法实现的。[ 184 ]
1980 年,卡内基梅隆大学为数字设备公司开发出了一套名为R1的专家系统。该系统取得了巨大的成功:到 1986 年,该系统每年为公司节省了 4000 万美元。 [ 185 ]世界各地的公司开始开发和部署专家系统,到 1985 年,它们在人工智能上的投入已超过 10 亿美元,其中大部分用于公司内部的人工智能部门。[ 186 ]一个支持它们的行业逐渐壮大,包括Symbolics和Lisp Machines等硬件公司,以及IntelliCorp和Aion等软件公司。[ 187 ]
政府资金增加
1981 年,日本国际贸易和工业部为第五代计算机项目拨款 8.5 亿美元。他们的目标是编写程序并制造能够进行对话、翻译语言、解释图片和像人类一样推理的机器。[ 188 ]令scruffies懊恼的是,他们最初选择Prolog作为该项目的主要计算机语言。[ 189 ]
其他国家也推出了自己的新项目。英国启动了耗资 3.5 亿英镑的Alvey项目。[ 190 ]一个美国公司财团成立了微电子和计算机技术公司(简称“MCC”),为人工智能和信息技术领域的大型项目提供资金。[ 191 ] [ 190 ] DARPA也做出了回应,成立了战略计算计划,并在 1984 年至 1988 年间将其对人工智能的投资增加了两倍。[ 192 ] [ 193 ]
知识革命
专家系统的强大之处在于其所包含的专业知识。它们是人工智能研究新方向的一部分,该方向在 70 年代不断发展。“人工智能研究人员开始怀疑——尽管这种怀疑违反了科学的简约原则——智能很可能基于以不同方式使用大量不同知识的能力,”帕梅拉·麦考达克 (Pamela McCorduck )写道。 [ 194 ] “20 世纪 70 年代的重大教训是,智能行为在很大程度上取决于处理知识,有时是相当详细的知识,以及给定任务所在领域的知识。” [ 195 ]知识型系统和知识工程成为 20 世纪 80 年代人工智能研究的主要焦点。[ 196 ]人们希望庞大的数据库能够解决常识知识问题,并提供常识推理所需的支持。
20 世纪 80 年代,一些研究人员试图直接攻克常识性知识问题,他们创建了一个庞大的数据库,里面收录了普通人所知道的所有日常事实。创建了Cyc数据库的道格拉斯·莱纳特 (Douglas Lenat )认为,这没有捷径可走——让机器了解人类概念的含义的唯一方法是手工教它们,一次教一个概念。[ 197 ]
20 世纪 80 年代的新方向
尽管符号知识表示和逻辑推理在 80 年代产生了有用的应用并获得了大量的资金,但它仍然无法解决感知、机器人、学习和常识方面的问题。少数科学家和工程师开始怀疑符号方法是否足以完成这些任务,并开发了其他方法,例如“联结主义”、机器人技术、“软”计算和强化学习。尼尔斯·尼尔森称这些方法是“亚符号的”。
神经网络的复兴:“联结主义”
具有四个节点的 Hopfield 网络
1982 年,物理学家约翰·霍普菲尔德 (John Hopfield)证明,一种神经网络(现称为“霍普菲尔德网络”)能够学习和处理信息,并且可以证明在任何固定条件下经过足够长的时间后会收敛。这是一项突破,因为之前人们认为非线性网络通常会以混沌的方式发展。[ 198 ]大约在同一时间,杰弗里·辛顿 (Geoffrey Hinton)和大卫·鲁梅尔哈特 (David Rumelhart)推广了一种称为“反向传播”的神经网络训练方法。[ ac ]这两项进展有助于重振对人工神经网络的探索。[ 122 ] [ 199 ]
1986 年,鲁梅尔哈特和心理学家詹姆斯·麦克莱兰编辑的两卷论文集《并行分布式处理》出版后,神经网络以及其他几个类似的模型受到了广泛关注。这个新领域被命名为“联结主义”,符号人工智能的倡导者与“联结主义者”之间展开了激烈的争论。 [ 122 ]辛顿称符号为“人工智能的光以太”——即一种不切实际且具有误导性的智能模型。[ 122 ]
1990 年,贝尔实验室的Yann LeCun使用卷积神经网络识别手写数字。该系统在 90 年代得到广泛应用,用于读取邮政编码和个人支票。这是神经网络的第一个真正有用的应用。[ 200 ] [ 201 ]
机器人技术与体现理性
罗德尼·布鲁克斯、汉斯·莫拉维克等人认为,为了表现出真正的智能,机器需要有躯体——它需要感知、移动、生存和应对世界。[ 202 ]感觉运动技能对于常识推理等高级技能至关重要。它们无法通过抽象的符号推理有效地实现,因此人工智能应该在不使用符号表示的情况下解决感知、移动、操纵和生存的问题。这些机器人研究人员主张“自下而上”构建智能。[广告]
这一想法的先驱是大卫·马尔 (David Marr) ,他在 20 世纪 70 年代末来到麻省理工学院,凭借理论神经科学的成功经验,领导了视觉研究小组。他拒绝了所有符号方法(包括 麦卡锡的逻辑和明斯基的框架),认为人工智能需要先从下往上理解视觉的物理机制,然后才能进行任何符号处理。(马尔的工作因 1980 年的白血病而中断。)[ 204 ]
机器人研究员布鲁克斯在 1990 年发表的论文《大象不下棋》[ 205 ]中直接批评了物理符号系统假说,他认为符号并非总是必要的,因为“世界本身就是最好的模型。它总是准确地与时俱进。它总是包含所有需要了解的细节。关键在于恰当地、足够频繁地感知它。” [ 206 ]
20 世纪 80 年代和 90 年代,许多认知科学家也拒绝了心智的符号处理模型,并认为身体对于推理至关重要,这一理论被称为“具身心智论”。[ 207 ]
软计算和概率推理
软计算使用的方法处理不完整和不精确的信息。它们不会试图给出精确、合乎逻辑的答案,而是给出“可能”正确的结果。这使得它们能够解决精确符号方法无法处理的问题。新闻报道经常声称这些工具可以“像人类一样思考”。[ 208 ] [ 209 ]
Judea Pearl于1988 年出版了一本颇具影响力的著作《智能系统中的概率推理:合理推理网络》 ,该书将概率和决策理论引入了人工智能。[ 211 ] Lofti Zadeh在 20 世纪 60 年代开发的模糊逻辑开始在人工智能和机器人领域得到更广泛的应用。进化计算和人工神经网络也能处理不精确的信息,因此被归类为“软”计算。20 世纪 90 年代和 21 世纪初,许多其他软计算工具被开发并投入使用,包括贝叶斯网络、[ 211 ]隐马尔可夫模型、[ 211 ]信息理论和随机建模。这些工具又依赖于经典优化等高级数学技术。20 世纪 90 年代和 21 世纪初的一段时间里,这些软工具被人工智能的一个分支领域“计算智能”研究。[ 212 ]
强化学习
强化学习[ 213 ]是指智能体每次出色地完成期望动作时都会获得奖励,表现不佳时则可能获得负面奖励(或“惩罚”)。20 世纪上半叶,心理学家使用动物模型描述了强化学习,例如Thorndike [ 214 ] [ 215 ] 、 Pavlov [ 216 ]和Skinner [ 217 ]。20世纪 50 年代,Alan Turing [ 215 ] [ 218 ]和Arthur Samuel [ 215 ]预见到了强化学习在人工智能中的作用。
从 1972 年开始,理查德·萨顿 (Richard Sutton)和安德鲁·巴托 (Andrew Barto)领导了一项成功且具有影响力的研究项目。他们的合作在四十年间彻底改变了强化学习和决策研究。[ 219 ] [ 220 ] 1988 年,萨顿从决策理论(即马尔可夫决策过程)的角度描述了机器学习。这为该主题奠定了坚实的理论基础,并使其能够获得运筹学领域开发的大量理论成果。[ 220 ]
同样在 1988 年,Sutton 和 Barto 开发了“时间差分”(TD)学习算法,其中代理只有当其对未来的预测有所改善时才会获得奖励。它的表现明显优于之前的算法。[ 221 ] 1992 年,Gerald Tesauro 在程序TD-Gammon中使用了 TD 学习,该程序的西洋双陆棋下法与人类最优秀的玩家不相上下。该程序在没有任何先验知识的情况下通过与自己对弈来学习游戏。[ 222 ]在一个有趣的跨学科融合案例中,神经学家在 1997 年发现大脑中的多巴胺奖励系统也使用某种版本的 TD 学习算法。[ 223 ] [ 224 ] [ 225 ] TD 学习将在 21 世纪产生巨大影响,用于AlphaGo和AlphaZero。[ 226 ]
第二次人工智能寒冬
20 世纪 80 年代,商界对人工智能的迷恋经历了典型的经济泡沫模式,时而起伏不定。随着数十家公司倒闭,商界认为这项技术不可行。[ 227 ]人工智能声誉受损的情况一直持续到 21 世纪。业内人士对于人工智能未能实现 20 世纪 60 年代全世界都梦寐以求的人类水平智能的梦想的原因几乎没有共识。所有这些因素加在一起,导致人工智能分裂成多个相互竞争的子领域,这些子领域专注于特定的问题或方法,有时甚至以新的名字来掩盖“人工智能”的污点。[ 228 ]
在接下来的 20 年里,人工智能持续为特定的孤立问题提供可行的解决方案。到 20 世纪 90 年代末,人工智能已在整个技术行业得到应用,尽管有些默默无闻。人工智能的成功归功于计算机能力的提高、与其他领域(如数学优化和统计学)的合作以及采用最高标准的科学问责制。到 2000 年,人工智能已经实现了一些最古老的目标。这个领域比以往任何时候都更加谨慎,也更加成功。
人工智能寒冬
“人工智能寒冬”一词是由那些经历了 1974 年资金削减的研究人员创造的,他们担心人们对专家系统的热情已经失控,失望必将随之而来。[ ae ]他们的担心是有根据的:在 20 世纪 80 年代末和 90 年代初,人工智能遭受了一系列财务挫折。[ 122 ]
1987 年,人工智能专用硬件市场的突然崩盘是天气发生变化的第一个迹象。苹果和IBM的台式电脑一直在稳步提升速度和性能,到 1987 年,它们的性能超过了Symbolics和其他公司生产的更昂贵的Lisp 机器。人们不再有理由购买它们。一个价值 5 亿美元的整个行业一夜之间被摧毁。[ 230 ]
最终,最早成功的专家系统(如XCON)被证明维护成本过高。它们难以更新,无法学习,而且“脆弱”(即,当输入异常时,它们可能会犯下可怕的错误)。专家系统被证明是有用的,但仅限于少数特殊情况下。[ 231 ]
20 世纪 80 年代末,战略计算计划“大幅削减”了对人工智能的资助。DARPA 的新领导层认为人工智能不是“下一波浪潮”,并将资金用于那些更有可能产生立竿见影效果的项目。[ 232 ]
到 1991 年,日本第五代计算机项目在 1981 年制定的一系列令人印象深刻的目标尚未实现。事实上,其中一些目标,如“进行随意交谈”,还要 40 年才能实现。与其他人工智能项目一样,人们对其的期望远远高于实际可能。[ 233 ] [ af ]
截至 1993 年底,已有 300 多家人工智能公司倒闭、破产或被收购,人工智能的第一波商业化浪潮宣告结束。[ 235 ] 1994 年,HP Newquist在《大脑制造者》一书中指出:“人工智能的近期未来(商业化形式)似乎在一定程度上取决于神经网络的持续成功。” [ 235 ]
幕后的人工智能
20 世纪 90 年代,最初由人工智能研究人员开发的算法开始作为更大系统的一部分出现。人工智能已经解决了很多非常困难的问题,它们的解决方案被证明在整个科技行业都很有用,[ 236 ] [ 237 ]例如数据挖掘、工业机器人、物流、语音识别[ 238 ] 、银行软件[239]、医疗诊断[ 239 ]和谷歌的搜索引擎。[ 240 ] [ 241 ]
人工智能领域在 20 世纪 90 年代和 21 世纪初取得的这些成功几乎没有得到任何赞誉。人工智能的许多伟大创新已被贬低为计算机科学工具箱中的普通物品。[ 242 ] 尼克·博斯特罗姆 (Nick Bostrom )解释说:“许多尖端人工智能已经渗透到一般应用中,通常不被称为人工智能,因为一旦某样东西变得足够有用和足够普遍,它就不再被贴上人工智能的标签了。” [ 239 ]
20 世纪 90 年代,许多人工智能研究人员故意用其他名称来称呼他们的工作,例如信息学、基于知识的系统、“认知系统”或计算智能。部分原因可能是他们认为他们的领域与人工智能有着根本的不同,但这些新名称也有助于获得资金。[ 238 ] [ 243 ] [ 244 ]至少在商业世界中,人工智能寒冬未能实现的承诺继续困扰着 21 世纪的人工智能研究,正如《纽约时报》在 2005 年报道的那样:“计算机科学家和软件工程师避免使用人工智能这个词,因为他们担心被视为狂热的梦想家。” [ 245 ]
数学严谨性、更强的协作性和狭窄的关注点
人工智能研究人员开始开发和使用比过去任何时候都更复杂的数学工具。[ 246 ] [ 247 ]人工智能的大多数新方向都严重依赖数学模型,包括人工神经网络、概率推理、软计算和强化学习。在 90 年代和 21 世纪,许多其他高度数学化的工具被应用于人工智能。这些工具被应用于机器学习、感知和移动性。
人们普遍认识到,统计学、数学、电子工程、经济学或运筹学等领域的研究人员已经在研究人工智能需要解决的许多问题。共享的数学语言既可以与更成熟和成功的领域进行更高层次的合作,也可以取得可衡量和可证明的成果;人工智能已经成为一门更严格的“科学”学科。
90 年代成功的另一个关键原因是人工智能研究人员专注于具有可验证解决方案的特定问题(这种方法后来被嘲笑为狭义人工智能)。这为当下提供了有用的工具,而不是对未来的猜测。
智能代理
一种名为“智能代理”的新范式在 20 世纪 90 年代得到广泛接受。[ 248 ] [ 249 ] [啊]尽管早期的研究人员已经提出了模块化的“分而治之”的人工智能方法,但直到 Judea Pearl、Allen Newell、Leslie P. Kaelbling 等人将决策理论和经济学概念引入人工智能研究时,智能代理才达到其现代形式。 [ 250 ]当经济学家对理性代理的定义与计算机科学对对象或模块的定义结合起来时,智能代理范式就完成了。
智能代理是一种能够感知环境并采取行动以最大程度提高成功率的系统。根据此定义,解决特定问题的简单程序是“智能代理”,人类和人类组织(如公司)也是“智能代理” 。智能代理范式将人工智能研究定义为“智能代理研究”。[ aj ]这是对人工智能早期定义的概括:它超越了对人类智能的研究;它研究各种智能。
该范式允许研究人员研究孤立的问题,并对方法持有不同意见,但仍希望他们的工作可以结合成一个具有通用智能的代理架构。 [ 251 ]
里程碑和摩尔定律
1997 年 5 月 11 日,“深蓝”成为首个击败国际象棋世界冠军加里·卡斯帕罗夫的计算机国际象棋系统。[ 252 ] 2005 年,斯坦福大学的机器人赢得了DARPA 大挑战赛,它在一条未经训练的沙漠小道上自动驾驶了 131 英里。两年后,卡内基梅隆大学的团队赢得了DARPA 城市挑战赛,它在城市环境中自动驾驶了 55 英里,同时应对交通危险并遵守交通法规。[ 253 ]
这些成功并非归功于某种革命性的新范式,而主要是得益于工程技术的精湛应用以及 90 年代计算机速度和容量的大幅提升。[ ak ]事实上,深蓝计算机的速度比 1951 年克里斯托弗·斯特雷奇教下棋的Ferranti Mark 1快 1000 万倍。[ al ]这一急剧增长是根据摩尔定律来衡量的,摩尔定律预测计算机的速度和内存容量每两年翻一番。“原始计算机能力”的基本问题正在慢慢被克服。
大数据、深度学习、AGI(2005-2017)
在 21 世纪的头几十年,大量数据(即“大数据”)的获取、更便宜、更快速的计算机以及先进的机器学习技术被成功应用于整个经济领域的许多问题。转折点是2012 年左右深度学习的成功,它提高了机器学习在许多任务上的表现,包括图像和视频处理、文本分析和语音识别。[ 255 ]随着人工智能能力的增强,对人工智能的投资也随之增加,到 2016 年,人工智能相关产品、硬件和软件的市场规模已超过 80 亿美元,《纽约时报》报道称,人们对人工智能的兴趣已达到“狂热”程度。[ 256 ]
2002 年,本·格策尔 (Ben Goertzel)等人开始担心人工智能已经在很大程度上放弃了其生产多功能、完全智能机器的初衷,并主张对通用人工智能进行更直接的研究。到 2010 年代中期,已有多家公司和机构成立,致力于研究通用人工智能 (AGI),例如OpenAI和谷歌的DeepMind 。在同一时期,对超级智能的新见解引发了人们对人工智能是一种生存威胁的担忧。2016 年后,人工智能技术的风险和意外后果成为严肃学术研究的一个领域。
大数据和大型机器
21 世纪机器学习的成功取决于海量训练数据和更快的计算机。[ 257 ] Russell 和 Norvig 写道:“将数据集规模增加两到三个数量级所带来的性能提升,远远超过通过调整算法所能实现的任何改进。” [ 200 ] Geoffrey Hinton回忆说,20 世纪 90 年代的问题在于“我们的标记数据集小了数千倍,计算机慢了数百万倍。” [ 258 ]到 2010 年,情况已不再如此。
21 世纪最有用的数据来自专为机器学习和人工智能创建的精选标记数据集。 2007 年,马萨诸塞大学阿默斯特分校的一个小组发布了《野生的带注释的人脸》 ,这是一组带注释的人脸图像,在接下来的几十年里被广泛用于训练和测试人脸识别系统。 [ 259 ] 李飞飞开发了ImageNet,这是一个包含 300 万张由志愿者使用Amazon Mechanical Turk配上字幕的图片的数据库。该数据库于 2009 年发布,是一组有用的训练数据,也是测试下一代图像处理系统的基准。[ 260 ] [ 200 ]谷歌于 2013 年发布了word2vec作为开源资源。它使用从互联网上抓取的大量数据文本和词嵌入来创建一个数字向量来表示每个单词。用户对它捕捉词义的能力感到惊讶,例如,普通的向量加法可以得出像中国+河流=长江、伦敦+英格兰-法国=巴黎这样的等价词。[ 261 ]这个数据库对于2010 年代后期 大型语言模型的开发至关重要。
互联网的爆炸式增长使机器学习程序能够访问数十亿页可供抓取的文本和图像。对于特定问题,大型私人数据库包含相关数据。麦肯锡全球研究所报告称,“到 2009 年,美国经济的几乎所有部门平均存储的数据至少有 200 TB”。[ 262 ]这些信息集合在 21 世纪被称为大数据。
在 2011 年 2 月的一场Jeopardy!表演赛上,IBM的问答系统 Watson以较大优势击败了Jeopardy!的两位最强冠军Brad Rutter和Ken Jennings 。 [ 263 ]如果没有互联网上的信息,Watson 不可能拥有如此高的专业素养。[ 200 ]
深度学习
2012 年,由Alex Krizhevsky开发的深度学习模型AlexNet赢得了ImageNet大规模视觉识别挑战赛,其错误率明显低于第二名。[ 265 ] [ 200 ] Krizhevsky与多伦多大学的Geoffrey Hinton合作。[ an ]这是机器学习的一个转折点:在接下来的几年里,数十种其他图像识别方法被深度学习所取代。[ 257 ]
深度学习使用多层感知器。尽管这种架构自 20 世纪 60 年代就已为人所知,但要使其发挥作用需要强大的硬件和大量的训练数据。[ 266 ]在这些出现之前,提高图像处理系统的性能需要手工制作难以实现的临时特征。 [ 266 ]深度学习更简单,更通用。[ ao ]
在接下来的几年里,深度学习被应用于数十个问题(例如语音识别、机器翻译、医疗诊断和游戏)。在每一个案例中,它都表现出了巨大的性能提升。[ 257 ]因此,对人工智能的投资和兴趣蓬勃发展。[ 257 ]
对齐问题
21 世纪初,人们又开始热议人工智能的未来,一些畅销书探讨了超级智能机器出现的可能性,以及它们对人类社会的意义。其中一些人持乐观态度(如雷·库兹韦尔的《奇点临近》),但也有人警告说,足够强大的人工智能会对人类构成生存威胁,如尼克·博斯特罗姆和埃利泽·尤德科夫斯基。[ 267 ]这一话题被媒体广泛报道,许多顶尖知识分子和政治家也对这一问题发表了评论。
21 世纪的人工智能程序由其目标定义,即它们旨在优化的具体指标。尼克·博斯特罗姆 (Nick Bostrom) 2005 年出版的颇具影响力的著作《超级智能》认为,如果不谨慎定义这些目标,机器在实现目标的过程中可能会对人类造成伤害。斯图尔特·J·拉塞尔 (Stuart J. Russell)以一个智能机器人为例,该机器人杀死主人以防止其被拔掉电源,理由是“如果你死了,你就无法取咖啡”。[ 268 ](这个问题的专业术语是“工具收敛”。)解决方案是将机器的目标功能与其主人和整个人类的目标保持一致。因此,减轻人工智能风险和意外后果的问题被称为“价值对齐问题”或人工智能对齐。[ 269 ]
与此同时,机器学习系统开始产生令人不安的意外后果。Cathy O'Neil解释了统计算法如何成为2008 年经济危机的原因之一,[ 270 ] ProPublica的Julia Angwin认为,刑事司法系统使用的COMPAS系统在某些方面表现出种族偏见, [ 271 ] [ ap ]其他研究表明,许多机器学习系统表现出某种形式的种族偏见,[ 273 ]还有许多其他例子表明机器学习系统导致了危险的后果。[ aq ]
2016 年,唐纳德·特朗普当选总统以及围绕 COMPAS 系统的争议凸显了当前技术基础设施存在的一些问题,包括虚假信息、旨在最大化参与度的社交媒体算法、个人数据滥用以及预测模型的可信度。[ 274 ]公平性和意想不到的后果问题在人工智能会议上变得更加受欢迎,出版物数量大幅增加,资金充足,许多研究人员将职业生涯的重点重新放在这些问题上。价值观一致问题成为一个严肃的学术研究领域。[ 275 ] [ ar ]
通用人工智能研究
21 世纪初,一些研究人员开始担心主流人工智能过于注重“特定应用中的可衡量性能” [ 277 ](即所谓的“狭义人工智能”),而放弃了人工智能最初的目标,即创造多功能、完全智能的机器。尼尔斯·尼尔森(Nils Nilsson)在 1995 年提出了早期的批评,人工智能元老约翰·麦卡锡(John McCarthy)、马文·明斯基(Marvin Minsky)和帕特里克·温斯顿(Patrick Winston)在 2007-2009 年也发表了类似的观点。明斯基于 2004 年组织了一次关于“人类水平的人工智能”的研讨会。[ 277 ] 本·格策尔(Ben Goertzel)采用了“通用人工智能”一词来指代这个新的子领域,并从 2008 年开始创办了一本期刊并举办会议。[ 278 ]受人工神经网络的持续成功以及人们希望它是通用人工智能的关键的推动,这个新领域迅速发展。
2010 年代,多家相互竞争的公司、实验室和基金会相继成立,共同开发 AGI。DeepMind成立于 2010 年,创始人为三位英国科学家Demis Hassabis、Shane Legg和Mustafa Suleyman,资金来自Peter Thiel和后来的Elon Musk 。创始人和投资者对 AI 的安全性和生存风险深感担忧。DeepMind 的创始人与 Yudkowsky 有私人关系,而马斯克则是积极发出警告的人之一。[ 279 ] Hassabis 既担心 AGI 的危险,又对其威力持乐观态度;他希望他们能够“先解决 AI,再解决其他一切问题”。[ 280 ]
2012 年,百度找到Geoffrey Hinton (他自 80 年代以来一直领导神经网络研究) ,希望以巨额资金聘请他和他的所有学生。Hinton 决定举行一场拍卖会,在太浩湖人工智能会议上,他们以 4400 万美元的价格将自己卖给了谷歌。哈萨比斯注意到了这一点,并于 2014 年将 DeepMind 卖给了谷歌,条件是它不接受军事合同,并接受道德委员会的监督。[ 279 ]
与马斯克和哈萨比斯不同,谷歌的拉里·佩奇对人工智能的未来持乐观态度。在 2015 年马斯克的生日聚会上,马斯克和佩奇卷入了一场关于 AGI 风险的争论。他们几十年来一直是朋友,但不久之后就不再说话了。马斯克参加了 DeepMind 道德委员会的唯一一次会议,在会上,他清楚地表明谷歌对减轻 AGI 的危害不感兴趣。由于对自己缺乏影响力感到沮丧,他于 2015 年创立了OpenAI ,邀请萨姆·奥特曼来管理它,并聘请了顶尖科学家。OpenAI 最初是一个非营利组织,“不受谷歌和其他公司所依赖的经济激励”。[ 279 ]马斯克再次感到沮丧,并于 2018 年离开了公司。OpenAI 向微软寻求持续的资金支持,奥特曼和 OpenAI 成立了一个营利性公司,融资额超过 10 亿美元
2021 年,达里奥·阿莫迪 (Dario Amodei) 和其他 14 名科学家因担心 OpenAI 将利润置于安全之上而离开。他们成立了Anthropic,该公司很快就从微软和谷歌获得了 60 亿美元的融资。[ 279 ]
《纽约时报》在 2023 年写道:“这场竞争的核心是一个令人费解的悖论。那些声称自己最担心人工智能的人恰恰是最有决心创造人工智能并享受其财富的人。他们坚信只有他们才能阻止人工智能危及地球,这证明了他们的雄心壮志是合理的。” [ 279 ]
大型语言模型、人工智能热潮(2020 年至今)
人工智能热潮始于 2017 年Transformer 架构等关键架构和算法的初步开发,这推动了大型语言模型的扩展和发展,这些模型表现出与人类类似的知识、注意力和创造力特征。新的人工智能时代始于 2020-2023 年左右,当时ChatGPT等可扩展大型语言模型 (LLM) 公开发布。[ 281 ]
Transformer 架构和大型语言模型
2017 年,谷歌研究人员提出了transformer架构。它利用了注意力机制,并在大型语言模型中得到了广泛应用。[ 282 ]
AGI 公司开发了基于 Transformer 的大型语言模型: OpenAI于 2020 年发布了GPT-3,DeepMind于 2022 年发布了Gato 。这些是基础模型:它们在大量未标记数据上进行训练,可以适应广泛的下游任务。[需要引用]
这些模型可以讨论大量主题并展示一般知识。问题自然而然地出现了:这些模型是通用人工智能的例子吗?比尔·盖茨对这项新技术和围绕 AGI 的炒作持怀疑态度。然而,奥尔特曼向他展示了ChatGPT4通过高级生物学测试的现场演示。盖茨被说服了。[ 279 ] 2023 年,微软研究院用各种各样的任务测试了该模型,并得出结论,“它可以合理地被视为通用人工智能(AGI) 系统的早期(但仍不完整)版本”。
2020 年后,人工智能投资呈指数级增长。[需要引证]
到 2024 年中,一些金融机构开始质疑人工智能公司产生投资回报的能力。杰里米·格兰瑟姆 (Jeremy Grantham)和杰弗里·冈拉克(Jeffrey Gundlach)等一些投资者推测,人工智能正在经历另一场泡沫,类似于互联网泡沫。[ 284 ] [ 285 ]
2024 年诺贝尔奖
2024 年,瑞典皇家科学院颁发诺贝尔奖,以表彰人工智能领域的开创性贡献。获奖者包括:
- 物理学领域:约翰·霍普菲尔德(John Hopfield) ,因其在物理学启发的霍普菲尔德网络方面的工作,以及杰弗里·辛顿(Geoffrey Hinton),因其对玻尔兹曼机和深度学习的基础性贡献。
- 化学领域:David Baker、Demis Hassabis和 John Jumper 在蛋白质折叠预测方面取得进展。请参阅AlphaFold。