Richard Sutton:经验是AI的终极数据,四个阶段通向真正AI的发展之路

d5f37f1abafd0b8d626f3f881b8de2e0.png

来源:智源社区

导读:强人工智能的发展是近年来关注的话题。让AI从人类的感知和行为,而非单纯的标注数据中学习,成为许多研究者关注的重点。其中,如何利用人类习得的日常生活经验,启发构建能够适应不同环境,与外部世界交互的人工智能这成为一些领域探索的新路。

被誉为强化学习之父的Richard Sutton近日提出了利用经验启发AI发展的思路。他将AI从利用数据到利用经验的过程分为四个发展阶段,提出了未来构建真正AI(Real AI)的发展方向。2022年5月31日,Richard Sutton在2022北京智源大会上发表了题为“The Increasing Role of Sensorimotor Experience in AI”的主题演讲,对利用经验启发AI发展的方法进行了总结和展望。

4c0ec707a4c80d82664654abb0bb1996.png

讲者简介:理查德·萨顿(Richard Sutton),现代计算型强化学习创始人之一,是 DeepMind 的杰出研究科学家,阿尔伯塔大学计算科学系教授,也是英国皇家学会、加拿大皇家学会、人工智能促进会、阿尔伯塔机器智能研究所 (AMII) 和 CIFAR 的研究员。

整理:戴一鸣、崔靖男

01. 背景:经验对智能发展的重要意义

Sutton认为,智能体与外部世界发生交互,向其发出动作,并接收感知(带来的反馈)。这种涉及到经验的交互,是强化学习中正常的感知方式。也是让智能体尝试预测外部世界时所采用的正常途径。然而,这种方法在监督学习中并不多见,而监督学习是当前最为常见的机器学习类型。机器学习中并不涉及普通经验(Ordinary Experience),模型也不会从不同于普通经验的特殊训练数据中学习。事实上,在运行时,监督学习系统根本不学习。

所以说,经验是互动(带来)的数据,是与外部世界沟通的途径。经验没有任何意义,除非与其他经验之间产生联系。当然,有一个例外:经由特殊信号所表示奖励。奖励代表着好的目标,智能体当然希望能够最大化奖励。

演讲中,Sutton提出了一个核心问题:智能最终是可以被什么来解释?是客观的术语(Objective terms),还是经验的术语(Experiential terms)?前者包含外部世界的状态、目标、人、地点、关系、空间、动作、距离等不在智能体中的事物,后者则包含感知、动作、奖励、时间步等智能体内部的事物。Sutton认为,尽管研究者通常会在交流和写论文时思考客观的概念,但是现在应当更加关注有关智能体与外部世界交互过程中产生的经验。

3460d837126eea4d43c66526d4dc6347.png

为了进一步介绍经验对于智能体的重要意义,Richard Sutton 提出,随着经验逐渐被重视,一共经历了四个阶段。分别为:智能体(Agenthood ),奖励(Reward),经验状态(Experiential State),以及可预测知识(Predictive Knowledge)。经过这四个阶段的发展,AI逐渐拥有经验,变得更加实际、可学习且易于扩展。

02. 经验在AI发展的历程

1.智能体(Agenthood)

智能体的含义是拥有/获得经验(的AI)。可能令人惊讶的是,早期的AI系统确实没有任何经验。在人工智能发展的早期阶段(1954-1985年),大多数AI系统只是用来解决问题或回答问题,他们没有感知能力,也不会行动。机器人是一个例外,但传统的系统只有启动状态和目标状态,如同下图中要堆叠的积木块一样。

2e0c837a37572fce8dc9e89df2f0f448.png

如果要达到恰当的目标状态,其解决方案就是一个行动序列,确保AI能够从启动状态达到目标状态。这其中没有感知和行动的存在,因为整个外部世界是已知、确定、封闭的,所以并不需要让AI感知和行动。研究者知道什么事情会发生,所以只需要构建一个解决问题的计划,让AI来执行即可,人类知道这样就能解决问题。

在过去30年的发展中,人工智能的研究关注构建智能体。这种转变可以体现在这一点:人工智能的标准教科书囊括了智能体的概念,将其作为基础。例如,1995年版本的《人工智能:一种现代的方法》中提到,全书的统一主题在于介绍智能体(Intelligent Agent)的概念。在这种视角下,AI的问题在于描述和构建智能体,并从环境中获得认知,并采取行动。随着研究的发展,标准、现代的方法是构建一个能够和外部世界交互的智能体。Sutton认为可以从这个视角看待AI。

54bebd41e631f3e0146e2a1bb7c6bd04.png

2.奖励(Reward)

奖励(Reward)是以经验的形式来描述AI的目标。这也是当前提出的一种有效方法,能够构建AI的所有目标。这也是Sutton与其合作者提出的方法。

奖励被认为是目前较为充分的一种假说——智能及其相关的能力都可以被理解为是服务于最大化奖励的结果。所以有说法认为,奖励对于智能体而言已经足够了。

然而Sutton认为,这一思路是需要被挑战的。奖励并不足够实现智能。奖励仅仅只是一个数字、一个标量,它并不足以解释智能的目标。来自头脑之外,仅用单一数字表达的目标,显得太小、太还原,甚至太贬低(人类的目标)了。人类喜欢把目标想象得更宏大,如照顾家庭、拯救世界、世界和平、让世界更美好。人类的目标比最大化快乐和舒适更为重要。

正如研究者发现奖励并不是很好的构建目标的方法,研究者也发现了通过奖励构建目标的优势。奖励构建的目标太小,但是人们可以在其中取得进展——目标可以被良好、清晰地定义,且易于学习。这对于通过经验构建目标而言反而是个挑战。

Sutton认为,想象通过经验来充分地构建目标,这是有挑战的。回顾历史可以看到,AI原本也不是对奖励有兴趣的,即使是现在也是如此。所以,不管是早期的问题解决系统,还是当前最新版的AI教科书,其依然将目标定义为需要达到的世界状态(World State),而非经验性的(定义)。这种目标可能依然是特定的一系列“积木”,不是一种需要达到的感知结果。

当然,最新的教科书中已经有章节提到强化学习,并提及这些AI使用的是奖励机制。此外,构建目标的过程中,奖励已是一种常规的做法,可以使用马尔科夫决策过程来实现。对于批评奖励不能够充分构建目标的研究者(如Yann LeCun)来说,奖励已经是智能这块“蛋糕”顶端的“樱桃”了,它很重要。

a8fd427e243320955131c0bcf7ea93b3.png

在接下来的两个阶段,Sutton将介绍应当怎样从经验的角度来理解外部世界,但在此之前,他将首先介绍经验指代的是什么。

3.插曲:什么是经验

849a8ec367b7a1f425d66b05b56f376d.png

如下图的序列(非真实数据)所示,当时间步启动的时候,系统会得到感知信号,而且也会发出信号和行动。所以感知信号可能会引起一些动作,而这些动作会引起下一个感知信号。在任何时候,系统都需要关注关注最近的行动和最近的信号,这样才能决定接下来将会发生什么,应当怎样去做。

b65f926f457568e891b067e919283e0f.png

如图所示,这是一个智能体执行程序的输入输出信号阵列。第一列是时间步,每一步可认为是0.1秒或0.01秒的瞬间。行动信号列则采用二级制表示,由灰白两色表示。之后是感知信号列,其中前四列是二进制值(也使用灰白两色),后四列则采用0-3的四种取值,用红黄蓝绿四种颜色表示,最后一列则是连续变量,代表奖励。在实验中,研究者将数字去掉,只留下颜色,以便于在其中寻找模式。Sutton认为,经验,是指对感觉-运动经验的数据中发现的模式产生的知识和理解。

在本案例中,Sutton列举了四个典型的模式:

1.行动的最后一位,和紧随其后的感知信号是相同的。如果某一时间步的行动是白色的,其后的第一个感知信号也是白色,灰色亦然。

04619c63ad22129978daffcef779f8ff.png

2.当出现红像素时,紧随其后的一个时间步是绿色像素。扩大数据范围后可以发现,在红绿像素先后出现后,隔一个时间步会出现蓝色像素。

3.数据的最后三列往往会出现一长串同样颜色,保持不变。一种颜色一旦开始,会持续多个时间周期,最终形成条纹。如很长的一串红色、绿色、蓝色等。

4fe95a47a36aebf3a852fcc01cfdabb4.png

4.如果展示AI预测的特定感知数据,很多时候这是无法立刻被观察到的,因此在本数据中增加返回值(Return),其代表着对将会到来的奖励的预测。框中的绿色条带代表了随后的奖赏中,绿色会比红色多。这代表着当前对于奖励的预测。

特殊的阴影区域则表示等待函数。等待函数的阴影区域中会有绿色和红色的条带。在这里,研究者将越早返回的,带有颜色奖励给予更高的权重。当随着返回值根据时间移动时,就可以看到预测结果和实际奖励之间的颜色和值的对应变化,这种返回值便是一种预测——其可以从经验中学习到。

Sutton认为,这种返回值本质上并不是从已经发生的事件中学习的,而是从时间差信号中学到的。其中最重要的信号就是价值函数。在本例中,返回值实际上是一个价值函数,代表的是对于未来奖励的总和。如果想要一个一般形式的,复杂的,能够指代未来值的函数,可采用名为一般价值函数(General Value Functions GVFs)的方法。一般价值函数包括了各种信号,不仅仅是奖励;可以是任何时间包络形式,而不仅仅是指数。一般价值函数还可以包括任何队列的策略,可以预测数量非常多,范围很广的事情。当然,Sutton认为,通过计算进行预测,其难易程度取决于被预测对象的形式。当使用一般价值函数进行预测时,被预测对象的表达形式需要被设计成易于学习的形式,且需要很高的计算效率。

4.经验状态(Experiential State)

提到“状态”这个词,很多研究会提到的是世界状态(World State),这是一个属于客观概念之下的词语。状态指的是对客观世界的一种符号化的描述(反映),能够和世界本身的情况匹配。例如,对于积木块的位置信息(C在A上)等。在最近的一段时间,一些研究者(如Judea Pearl)提出了概率图模型,其表示的是世界状态的概率分布。一些事件,如“外面下雨,草地是否是湿的?”等,这些事件之间都存在概率关系。

d417c4da5a025e63eb325b97da19f4b9.png

另一种状态是信念状态(Belief State),在这种概念中,状态是一种概率分布,表示的是离散世界的状态,其对应的方法被称为POMDPs(Partially observable Markov decision process)——存在隐藏状态变量,其中部分是可观察到的,可以使用马尔科夫决策过程进行建模。

b87d4ae6ff056a2753512c8ee536e828.png

以上的方法均是客观的状态,与经验相距甚远,是研究者一开始尝试描述世界状态的方法。

而与之不同的,是经验状态。Sutton认为,经验状态指的是整个世界的状态根据经验来定义。经验状态是过去经验的总结,能够预测和控制未来将会获得的经验。

这种构造过去经验,预测未来的做法,在研究中已有体现。例如,强化学习任务之一——雅达利游戏中,研究者会用最后四帧的视频构建经验状态,然后预测之后的行为。LSTM网络中的一些方法,也可以被认为是从某种经验状态中进行预测。

25c2733a21ee5ff952851263e531f93a.png

回看经验状态,它是可以递归更新的。经验状态是整个过去发生事情总结的函数,由于AI需要每时每刻访问经验状态,实现对接下来发生事件的预测,所以经验状态的更新是递归式的:当前时刻只访问上一时刻的经验状态,而上一时刻经验状态是对过去所有发生过的事件的总结。到了下一个时刻,也只访问此时此刻的经验状态,而这个经验状态也是对过去发生的所有事件的总结。

下图显示了智能体经验状态的构造过程。其中,红色箭头表明智能体的基础工作信号,包括:感觉、行动、奖励等。蓝箭头标注的是经验状态(表征)的方向,从感知中输出,其负责对每个时间步更新其经验状态。更新的状态会被用来为行动制定策略,或进行其他更新。

073c391939879be5b8b789e2b90e29aa.png

5.预测性知识(Predictive Knowledge)

知识,如“乔拜登是美国总统”,“埃菲尔铁塔在巴黎”等,都是对于外部客观世界的一种描述,并不是经验性的。但是,类似于“做某事预计花费X小时”这类知识,是经验知识。经验知识和客观知识之间存在着巨大的差异,这也是对于AI研究具有挑战性的一点。

以往的AI研究倾向于将知识视为一种客观项,尽管近期已经有一些研究从经验的角度来看待问题。早期的AI系统没有经验,也就无法进行预测。而更现代一些的AI将知识视为客观的存在。更为先进一些的是概率图模型,但是很多时候其研究的是两件同时发生的事情之间的概率,而预测面向的应该是一连串序列事件。

基于对序列事件的预测是具有明确语义属性的知识。如果某事情被预测会发生,AI就可以将预测和实际结果对比。而这种预测模型,可以被认为是一种新的世界知识,即预测性知识。而在预测性知识中,Sutton认为最前沿的就是通用价值函数(General Value Function)和选择模型(Option Model)。

05cdc32e03cdb4b95a00b7133d53b3a1.png

Sutton 把世界知识分为两类,一是关于世界状态的知识;二是关于世界状态转换的知识。有关世界状态转换知识的案例是世界预测模型。此处的的世界预测模型,并不是初级形态的马科夫决策过程或差分方程。它可以是抽象的状态,在经验状态中可以被抽取出来。由于预测是以整个行为为条件进行的,所以在选择模型中,智能体也可以选择停止某个策略,终结某种条件。有时候,使用对于旋律的迁移模型,可以预测进行了某个行动后的状态。以日常生活为例,假设某人要去城里,他/她会对前往市中心的距离、时间进行一个预测,对于超过某个阈值的行为(如步行10分钟进城),就会进一步预测出一个状态,如疲惫等。

有了这种能够延伸行为的模型,其知识所表示的规模也可以非常的大。例如,可以根据一个行为,预测世界状态,然后根据状态再预测下一个行为......以此类推。

79645422ca93481ad71cf3671eaec7a8.png

总结经验在AI研究中的发展历程,Sutton表示,经验是世界知识的基础,人类本身是通过感知和行动来认识和影响世界的,经验是人类获得信息、采取行动的的唯一方式,而且是人类离不开的。遗憾的是,由于经验过于主观化和个人化,人类仍然不喜欢用经验的方式去思考和表达。经验对于人类太过陌生、反直觉、短暂、复杂。而经验也是主观、私人的,与他人进行交流,或者进行验证几乎是不可能的。

285901d46f5b676b1f4fa490b579a979.png

Sutton认为,经验对于AI十分重要,有以下几个原因。一是经验来自于AI的日常运行过程,获得这些经验是无成本的、自动的。同时,AI领域有大量的数据用于计算,因此经验提供了通向了解世界的道路,如果世界中的任何事实都是经验性的,那么AI可以从经验中学习对世界的认识,并在经验中进行验证。

6b2191fd68836407b98efb94a5b18299.png

总结而言,Sutton认为,过去70年的AI发展历程中,AI逐渐在增加对经验的重视——获得经验、根据经验设定目标、并根据经验获得状态和知识。在每一个阶段,对于人类更为陌生的经验研究正在变得更加重要,而且其具有接地气(Grounding)、可学习和可扩展的优势。

ef79e66ad70b0315753e536b79ed436a.png

03. 未来AI利用经验的方法

Sutton认为,目前对于经验利用方面,AI还未完成阶段三和四,但是这种趋势向前会越走越远。Sutton认为,将一切都归于经验,是通向真正AI的可行路径。尽管非常具有挑战性,但这是能够理解数据流,实现智能的图景。最后,Sutton进一步凝炼重视感知运动经验的四个阶段,形成一句标语:“数据驱动着人工智能,而经验就是终极的数据。如果能利用好经验,我们就可以更快速有力地推动人工智能发展。”

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

1f46a9b4409fa21bbf68c1f17dcab640.png

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/481916.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

一张图带你了解JRE、JDK、JVM

目录 1.JRE 2.JDK 3.JVM 三者关系: 1.JRE JRE是Java Runtime Environment,Java 运行环境,包含Java运行的环境和核心类库。 2.JDK JDK是 Java Development Kit,Java 开发工具包,包含Java编译工具和运行工具。 3.JV…

机器的崛起:隐藏的控制论历史(二)

来源:sayonly大家好,我是只说,我在《图说元宇宙》之外开了一个新的番外,叫《元宇宙新使命》,本文是第34篇,“机器的崛起:隐藏的控制论历史(二)”。在上一篇文章中&#x…

毕业设计-基于Python爬虫的疫情数据可视化系统

基于Python爬虫的疫情数据可视化系统 采用EChartsFlaskRequests架构: 源码加3105088663

不要再「外包」AI 模型了!最新研究发现:有些破坏机器学习模型安全的「后门」无法被检测到...

来源:AI科技评论作者:王玥、刘冰一、黄楠编辑:陈彩娴一个不可检测的「后门」,随之涌现诸多潜伏问题,我们距离「真正的」机器安全还有多远?试想一下,一个植入恶意「后门」的模型,别有…

Git命令:常用Git命令集合

1.Git基本工作流程 2.命令 命令作用git init初始化,创建 git 仓库git status查看 git 状态 (文件是否进行了添加、提交操作)git add 文件名添加,将指定文件添加到暂存区git commit -m 提交信息提交,将暂存区文件提交到…

从微观到宏观:涌现的实质是信息转换?

来源: 集智俱乐部作者:梁金编辑:邓一雪导语之前的研究表明,还原并非总是好的科学策略,一些情况下,降维可以增加系统元素之间的依赖性,使得粗粒化的宏观尺度比底层微观尺度携带更多有效信息&…

Java栈内存、堆内存、方法区对对象和引用的关系

问题:Java栈内存、堆内存、方法区对对象和引用的关系 答案: 1.单个对象 如图所示: (1)首先类加载器加载要运行的类,首先将main方法加载进方法区,并进栈内存,顺序执行代码&#xff…

清华徐勇、段文晖研究组开发出高效精确的第一性原理电子结构深度学习方法与程序...

来源:ScienceAI第一性原理计算已被广泛应用于物理、材料、化学、生物相关的科学研究。然而,受限于计算效率和精度,如何实现大尺度材料体系的第一性原理研究是该领域的一个重大挑战。基于人工神经网络的深度学习方法为解决该挑战问题带来了曙光…

图灵奖获得者罗杰·瑞迪:AI不可能取代人类

来源:中国电子报作者:张维佳编辑:赵晨美编:马利亚监制:赵晨6月24日,图灵奖获得者、美国国家工程院院士、美国艺术与科学学院院士、中国工程院外籍院士罗杰瑞迪在第六届世界智能大会上表示,对待A…

LeCun用62页论文公布未来十年研究计划:AI自主智能

来源:量子位 | 公众号 QbitAI丰色 发自 凹非寺这段时间,关于“AI未来往哪走的”讨论,可以说是越来越激烈了。先是Meta被曝AI相关部门大重组,又有谷歌AI是否具备人格大讨论,几乎每一次讨论都能看到Yann LeCun的身影。现…

Java面试知识点:Date类、异常

问题:Java面试知识点:Date类、异常 答案: 1.Date类 代码如下: (1)创建日期: package com.xy;import java.util.Date;/*** ProjectName: day01* Package: com.xy* ClassName: test01* Author…

Cell解开谜题:原来是这种细胞教会新生的T细胞如何区分敌我!

来源:生物通研究人员发现了一种新的机制,可以教会正在训练中的免疫细胞在攻击病原体时保护自身组织。作为这种早期教育的一部分,专门的胸腺细胞会“摆”成不同的组织,教会免疫系统如何识别朋友和敌人。错误地对身体自身蛋白质做出…

Java面试知识点:集合、Set、泛型、HashSet、HashMap

Java面试知识点:集合、Set、泛型、HashSet、HashMap 答案: 1.集合 集合和数组的对比小结 1,数组的长度是不可变的,集合的长度是可变的。 2 ,数组可以存基本数据蟀和引用数据类型。 集合只能存引用数据类型&#xff0…

Java面试知识点:红黑树、Stream流

问题:Java面试知识点:红黑树、Stream流 答案: 1.红黑树 红黑树 • 平衡二叉B树 • 每一个节点可以是红或者黑 • 红黑树不是高度平衡的,它的平衡是通过“自己的红黑规则”进行实现的 2.Stream流 Stream流的常…

2022年SCI期刊最新影响因子正式发布

来源:高分子科技今日,广大科研人员期待的2022年最新影响因子已正式揭晓。每年的官方影响因子的发布,奖学金、毕业、职称、年终奖、申请国自然……几乎没有不需要它的。今年共有近13000本期刊获得影响因子,其中60%以上的期刊IF实现…

Java面试知识点:File、IO流

问题:Java面试知识点:File、IO流 答案: 1.File listFiles方法注意事项: • 当调用者不存在时,返回null • 当调用者是一个文件时,返回null • 当调用者是一个空文件夹时,返回一体度为0的数组 • 当调用者是…

中国科学家建立可与人脑突触数量相较的AI模型——“八卦炉”

来源:俄罗斯卫星通讯社中国科学家基于最新的一台配备双威处理器的超级计算机,建立了“脑级人工智能模型”——八卦炉(BAGUALU)。其具有174万亿个参数,可与人脑中的突触数量相媲美,将在从自动驾驶汽车到科学…

Java面试知识点:多线程

问题:Java面试知识点:多线程 答案: 1.线程 代码如下: package com.xy;/*** ProjectName: day01* Package: com.xy* ClassName: test01* Author: 杨路恒* Description:* Date: 2021/8/25 0025 16:57* Version: 1.0*/ public class…

基础科学研究需要哲学滋养

来源:人民网-人民日报 2017年3月28日作者:丘成桐(清华大学丘成桐数学科学中心)现代科技进步日新月异,不断拓展人类认知和活动的边界,广泛影响社会生产生活的各个方面。比如,高铁、飞机大大方便了…

Java面试知识点:网络编程

问题:Java面试知识点:网络编程 答案: 1.InetAddress 代码如下: package com.xy;import java.net.InetAddress; import java.net.UnknownHostException;/*** ProjectName: day01* Package: com.xy* ClassName: test01* Author: 杨路恒* Des…