「强化学习可解释性」最新2022综述

7b86bb4ec048f2c7999cae7de0af92b6.png

来源:图灵人工智能

强化学习是一种从试错过程中发现最优行为策略的技术,已经成为解决环境交互问题的通用方法.然而,作为一类机器学习算法,强化学习也面临着机器学习领域的公共难题,即难以被人理解.缺乏可解释性限制了强化学习在安全敏感领域中的应用,如医疗、驾驶等,并导致强化学习在环境仿真、任务泛化等问题中缺乏普遍适用的解决方案.为了克服强化学习的这一弱点,涌现了大量强化学习可解释性(Explainable Reinforcement Learning,XRL)的研究.然而,学术界对XRL尚缺乏一致认识.因此,本文探索XRL的基础性问题,并对现有工作进行综述.具体而言,本文首先探讨了父问题——人工智能可解释性,对人工智能可解释性的已有定义进行了汇总;其次,构建了一套可解释性领域的理论体系,从而描述XRL与人工智能可解释性的共同问题,包括界定智能算法和机械算法、定义解释的含义、讨论影响可解释性的因素、划分了解释的直观性;然后,根据强化学习本身的特征,定义了XRL的三个独有问题,即环境解释、任务解释、策略解释;之后,对现有方法进行了系统的归类,并对XRL的最新进展进行综述;最后,展望了XRL领域的潜在研究方向.

http://www.jos.org.cn/jos/article/abstract/6485

人工智能(Artificial Intelligence, AI)和机器学习(Machine Learning, ML) 在计算机视觉[1] 、自然语言处理 [2] 、智能体策略[3] 等研究领域都取得了突破,并逐渐融入人的生活.虽然 ML 算法对于很多问题具有良好表 现,但由于算法缺乏可解释性,模型实际使用中常受到质疑[4] [5] ,尤其在安全敏感的应用领域,如自动驾驶、医 疗等.缺乏可解释性的问题已经成为机器学习的瓶颈问题之一. 

强化学习(Reinforcement Learning, RL)被验证适用于复杂的环境交互类问题[6]-[8] ,如机器人控制[9] ,游 戏 AI[10] 等.但作为机器学习的一类方法,RL 同样面临着缺乏可解释性的问题,主要表现在如下 4 个方面: 

(1) 安全敏感领域中的应用受限.由于缺乏可解释性,RL 策略难以保证其可靠性,存在安全隐患.这一问题 在安全敏感任务(如医疗、驾驶等)中难以被忽略.因此,为避免模型不可靠带来的危险,RL 在安全敏感 任务中大多局限于辅助人类的决策,如机器人辅助手术[11] ,辅助驾驶[12] 等; 

(2) 真实世界知识的学习困难.虽然目前 RL 应用在一些仿真环境中具有优异表现,如 OpenAI gym[13] , 但这些仿真环境以简单游戏为主,与真实世界存在较大差异.另外,RL 应用难以避免对环境的过拟合. 当过拟合发生时,模型学到环境的背景信息,而非真正的知识.这导致了两难的问题,一方面,在真实世 界中训练 RL 模型通常消耗巨大,另一方面,难以确定在虚拟环境中训练的模型学到了真实的规律. 

(3) 相似任务的策略泛化困难.RL 策略通常与环境存在强耦合,难以被应用到相似环境中.甚至在同样的 环境下,环境参数的微小变化也会极大影响模型性能.这一问题影响了模型的泛化能力,难以确定模 型在相似任务中的表现. 

(4) 对抗攻击的安全隐患难于应对.对抗攻击[14] 是一种针对模型输入的攻击技术,通过将微小的恶意扰 动加入到模型的输入中生成对抗样本.对人而言,对抗样本不影响判断,甚至难以察觉,然而对于模型 而言,对抗样本会使模型的输出产生极大的偏差.对抗攻击从深度学习扩展到 RL[15] [16] ,成为 RL 算 法的安全隐患.对抗攻击的有效性进一步暴露了 RL 缺乏可解释性的问题,同时也进一步说明 RL 模 型并未学到真正的知识. 

解释对模型的设计者和使用者都具有重要的意义.对于模型的设计者,解释能体现模型所学的知识,便于 通过人的经验验证模型是否学到鲁棒的知识,从而使人高效地参与到模型的设计和优化中;对于特定领域的专 家使用者,解释提供模型的内部逻辑,当模型表现优于人时,便于从模型中提取知识以指导人在该领域内的实 践.对于普通用户,解释呈现模型的决策的原因,从而加深用户对模型的理解,增强用户对模型的信心.

强化学习可解释性(Explainable Reinforcement Learning, XRL),或可解释强化学习,是人工智能可解释性 (Explainable Artificial Intelligence, XAI)的子问题,用于增强人对模型理解,优化模型性能,从而解决上述缺乏可 解释性导致的 4 类问题. XRL 与 XAI 之间存在共性,同时 XRL 具备自身的独特性.

一方面,XRL 与 XAI 存在共性.首先,提供解释的对象是智能算法而非机械算法.机械算法,如排序、查找 等,其特点是完备的输入,固定的解法以及明确的解.而智能算法因为输入的不完备以及解法的不确定,导致算 法必须在解空间中寻找较优的解;其次,人和模型是两个直接面对的关键实体.与其他技术不同,可解释性方法 关注人对模型的理解.由于人对大量条例混乱的数据缺乏理解,因此解释通常对模型内在逻辑的抽象,这一过程 必然伴随对模型策略的简化.其中的难点是,如何在向人提供解释时,保证该解释与模型主体逻辑的一致性;最 后,解释的难度是相对的,同时由问题规模和模型结构两个因素决定,并且这两个因素在一定条件下相互转化. 例如,结构简单的模型(如决策树、贝叶斯网络等)在通常可以直观的展示输入和输出之间的逻辑关系,但面对由 大量简单结构组成的庞大模型,其错综复杂的逻辑关系仍然导致模型的整体不可理解.同时,虽然结构复杂的模 型(如神经网络)通常难以被理解,但当模型被极致约减时(如将神经网络塌缩为具有少数变量的复合函数),模型本身仍然可以被人所理解。

另一方面,XRL 也具备自身的独特性.强化学习问题由环境、任务、智能体策略三个关键因素组成,因此, 解决 XRL 问题必须同时考虑这三个关键因素.由于 XRL 的发展仍处于初步阶段,大部分方法直接从 XAI 的研 究中继承,导致现有研究集中于对智能体策略的解释,即解释智能体行为的动机及行为之间的关联.然而,缺乏 对环境和任务的认识使得一些关键问题无从解决:缺乏对环境的认识使人在面临复杂任务时,缺乏对环境内部 规律的理解,导致对环境状态进行抽象时忽略有利信息,使智能体难以学到真实的规律;缺乏对任务的解释使任 务目标与过程状态序列之间的关联不明确,不利于智能体策略与环境的解耦合,影响强化学习智能体策略在相 似任务或动态环境中的泛化能力.因此,对环境、任务和策略的解释存在强关联,是实现强化学习解释必然面临 的问题. 

目前,XRL 已经成为 AI 领域的重要议题,虽然研究者们为提高强化学习模型的可解释性做出了大量工作, 但学术界对 XRL 尚且缺乏一致的认识,导致所提方法也难以类比.为了解决这一问题,本文探索 XRL 的基础性 问题,并对现有工作进行总结.首先,本文从 XAI 出发,对其通用观点进行总结,作为分析 XRL 问题的基础;然后, 分析 XRL 与 XAI 的共同问题,构建出一套可解释性领域的理论体系,包括界定智能算法和机械算法、定义解释 的含义、讨论影响可解释性的因素、划分解释的直观性;其次,探讨 XRL 问题的独特性,提出包括环境解释、任 务解释和策略解释的三个 XRL 领域的独有问题;随后,对现有 XRL 领域的研究进展进行总结.以技术类别和解 释效果为依据将对现有方法进行分类,对于每个分类,根据获取解释的时间、解释的范围、解释的程度和 XRL 的独有问题,确定每类方法的属性;最后,展望了 XRL 领域的潜在研究方向,重点对环境和任务的解释、统一的 评估标准两个方向进行展开.

1 人工智能可解释性的观点总结 

对 XRL 的研究不能脱离 XAI 的基础.一方面,XRL 是 XAI 的子领域,其方法和定义密切相关,因此 XRL 的 现有研究广泛借鉴了 XAI 在其他方向(如视觉)的成果;另一方面,XRL 目前仍处于起步阶段,对其针对性的讨论 较少,而对于 XAI,研究者们长期以来进行了广泛的研究和讨论[17] -[24] ,具有深刻的借鉴意义.基于上述原因, 本文从 XAI 的角度探讨可解释性问题,整理出学术界对 XAI 的共识,以此作为 XRL 的研究基础. 

虽然学者们从不同角度对 XAI 的定义在特定情况下指导着一类研究.然而,缺乏精确而统一的定义使得学 术界对 XAI 的认识存在一定差异.本文对 XAI 相关的定义进行总结,并将其分为形而上的概念描述、形而下的 概念描述两类. 

形而上的概念描述使用抽象概念对可解释性进行定义[25] -[28] .这些文献使用抽象的词描述可解释性算法,例如可信性(trustworthy),可靠性(reliability)等.其中可信性意味着人以较强的信心相信模型所做的决定,而可 靠性意味着模型不同场景下总是能保持其性能.虽然这样抽象的概念不够精确,只能产生直观的解释,但仍然可以使人准确了解可解释性的目标、对象和作用,建立对可解释性的直觉认知.这些概念表明,可解释性算法具备 两个关键实体,即人和模型.换而言之,可解释性是一项以模型为对象,以人为目标的技术. 

形而下的概念描述从哲学、数学等的观点出发,基于解释的现实意义对其进行定义.如 Páez 等人[17] 从哲 学角度出发,认为解释所产生的理解并不完全等同于知识,同时理解的过程也不一定建立在真实的基础上.我们 认为,解释作为媒介存在,这个媒介通过呈现模型的真实知识或构建虚拟逻辑的方式,增强人对模型的理解.同 时,人对模型的理解不必建立在完全掌握模型的基础上,只要求掌握模型的主要逻辑,并能对结果进行符合认知 的预测. Doran 等人[29] 认为,可解释性系统使人们不仅能看到,更能研究和理解模型输入和输出之间的数学映 射. 一般而言,AI 算法的本质是一组由输入到输出的数学映射,而解释则是将这样的数学映射以人类可理解和 研究的方式展现出来.虽然数学映射也是人们为描述世界而创造的一种方式,但对于复杂的数学映射(如用于表 示神经网络的高维多层嵌套函数),人们却无法将其与生活中的直观逻辑相联系. Tjoa 等人[19] 认为,可解释性 是用于解释算法做出的决策,揭示算法运作机制中的模式以及为系统提供连贯的数学模型或推导.这一解释也 基于数学表达,反映出人们更多地通过模型的决策模式来理解模型,而非数学上的可重现性.

一些观点与上述文献存在微小出入,但仍具有借鉴意义.例如,Arrieta 等人[21] 认为可解释性是模型的被动 特征,指示模型被人类观察者理解的程度.这个观点将模型的可解释性视为被动特征,忽略了模型为了更强的可 解释性而主动提出解释的可能. Das 等人[23] 认为,解释是一种用于验证 AI 智能体或 AI 算法的方式.这一观点 倾向于关注模型的结果,其目的是为了确保模型一贯的性能.然而该描述忽略了一个事实,即模型本身意味着知 识,可解释性不仅是对模型结果的验证,同时也有助于从模型中提取人们尚未掌握的知识,促进人类实践的发 展.虽存在较小出入,但上述观点也提出了独特的角度,例如,可以将模型的可解释性视为模型的一个特性,而评 估模型的性能是解释的重要功能. 

虽然对 XAI 的定义众多,但就整体而言,学术界对 XAI 的基本概念仍然是一致的.本文尝试提取其中的共 性作为研究 XRL 问题的理论基础.通过对以上文献的分析,我们总结出学术界对 XAI 的共识: 

(1) 人与模型是可解释性直接面对的两个关键的实体,可解释性是一项以模型为对象,以人为目标的技 术; 

(2) 解释作为理解的媒介存在,该媒介可以是真实存在的事物,也可以是理想构建的逻辑,亦或是二者并 举,达到让人能够理解模型的目的; 

(3) 人的对模型的理解不需要建立在完全掌握模型的基础上;

(4) 可准确重现的数学推导不可取代可解释性,人对模型的理解包括感性和理性的认知;

(5) 可解释性是模型的特性,这一特性可用于验证模型的性能.

2 强化学习可解释性与人工智能可解释性的共同问题 

在对 XAI 定义进行总结的基础上,本节讨论 XRL 与 XAI 面临的共同问题.由于 XRL 与 XAI 之间存在强 耦合,因此本节内容既适用于 XAI,同时也是 XRL 的基础问题. 

2.1 智能算法和机械算法界定 

可解释性的对象是智能算法而非机械算法.传统认知中的机械算法,如排序、查找等,面对确定的任务目标, 同时具有固定的算法程序.强化学习作为一种智能算法,在与环境动态交互的过程中寻找最优的策略,最大化获 得的奖赏.界定智能算法和机械算法可用于确定被解释的对象,进而回答“什么需要被解释”的问题.一方面,智能 算法与机械算法存在差异,而解释只在面向智能算法时存在必要性;另一方面,即使对于强化学习,也无需对其 所有过程产生解释,而应针对其具有智能算法特性的部分进行解释,如动作生成、环境状态转移等.因此,在讨论 可解释性问题前,有必要区分智能算法和机械算法. 

本文根据算法对已知条件的获取程度和建模的完整性,定义“完全知识”和“完全建模”: 

完全知识:已知足够任务相关的有效知识,具备以机械过程获得最优解的条件; 

完全建模:进行完整的问题建模,具备完成任务所需的计算能力; 

完全知识是以机械方法确定最优解的前提.例如,求解系数矩阵的秩为 的线性方程组,完全知识表示其增 广矩阵的秩大于等于系数矩阵的秩,此时可以根据当前知识,获得确定的解或者确定其无解;完全建模意味着对 现有知识的充分利用,换言之,完全建模从建模者的角度出发,表示在解决任务的过程中有能力(包括程序设计 者的设计能力和硬件的算力)利用所有的知识.例如,在 19×19 围棋游戏中,存在理论上的最优解法,但目前尚不 具备足够的计算能力在有限时间内获取最优解. 

根据上述对完全知识和完全建模的定义,本文进一步提出“任务完全”的概念来确定机械算法与智能算法 之间的边界: 

任务完全:对特定任务,具备完全知识并进行完全建模. 

任务完全必须在完全知识的前提下进行完全建模.满足任务完全的条件后,算法的优劣取仅决于建模方式 和使用者的实际需求.任务完全的定义考虑了知识和建模两方面因素(图 1). 

任务完全的概念可以用来区分机械算法和智能算法.机械算法是任务完全的,具体来说,算法已知足够的 知识,并进行了无简化的建模.此时,算法具备获取最优解的条件,因此算法的过程是确定的,获得的解也是可预期的.例如,经典排序算法、传统数据查询、3×3 井字棋游戏算法等都属于机械算法.智能算法是任务不完全的, 这意味着算法不具备足够的知识,或者采取了简化的建模方式.智能算法无法直接获取最优解,通常在解空间中 寻找较优的解.如基于贪心策略的算法,线性回归方法,19×19 传统围棋策略,机器学习类算法等。

导致任务不完全的可能有二,即知识不完全和建模不完全.在知识不完全的情况下,算法无法直接确定最 优解,因此只能在解空间中逼近最优解.此时,智能算法的实际作用是在解空间中进行解的选择.导致知识不完 全的因素通常是客观的,如环境状态无法被完全观测,任务目标不可预知,任务评价指标的不可知,任务始终点 不可知等等;在建模不完全的情况下,算法通常忽略某些知识,导致算法过程没有充分利用知识,从而无法获得 最优解.建模不完全的原因有客观和主观两方面,客观原因如建模偏差,不完全建模等,主观原因包括降低硬件 需求,模型提速等.在强化学习中,并非所有过程具备任务不完全的特点,因此只有部分需要进行解释,如策略生 成、环境状态转移等.

3b58d6ad050387917144841c2f97c53b.png

2.2 对“解释”的定义 

在汉语词典中,解释有“分析、阐明”的含义.这不仅符合生活中对该词的理解,同时也与可解释性研究中“解 释”的含义相近.然而,具体到可解释性的研究中,这一含义显得宽泛.我们希望结合对可解释性的理解,细化“解 释”的含义,使之具有更强的指导意义.以强化学习模型为例,模型学习使奖励最大化的策略,其中包含着环境、奖 励和智能体之间的隐式知识,而 XRL 算法则是将这些隐式知识显式地表现出来.本文将多个知识视为集合,称 为知识体系,从知识体系相互之间关系的角度,对“解释”做出如下定义: 

解释:知识体系之间的简洁映射.简洁映射是在不引入新知识的条件下对目标知识进行表达; 

具体来说,解释是将基于原知识体系的表达转换为目标知识体系表达的过程,这个过程仅使用目标知识体 系的知识,而不引入新的知识.而 XRL 算法的目的在于产生解释,从而使原知识体系能够被目标知识体系简洁 的表达出来.在 XRL 中,原知识体系通常指代强化学习模型,而目标知识体系通常指人的认知,模型和人是可解 释性的两个关键实体.本文将原知识体系看作由多个元知识及其推论构成的集合.以 表示元知识, 表示知识 体系,则 .假设智能体习得的知识属于知识体系 ,而人类能够理解的知识属于知识体系 ,则解释 是将知识体系 转换为知识体系 表达的过程.对于解释而言,简洁映射是必要的,非简洁的映射可能提升解释 本身的被理解难度,进而导致解释本身让人无法理解(见 2.3 ). 

在对知识进行转换表达的过程中,待解释的知识可能无法完全通过目标知识体系进行描述,这时只有部分 知识可以被解释.本文使用“完全解释”和“部分解释”的概念描述这一情况:

完全解释:待解释的知识完全被目标知识体系表达.其中,被解释的知识属于目标知识体系是其必要条件; 

部分解释:待解释的知识的部分被目标知识体系表达.

具体来说,完全解释和部分解释描述的是知识体系之间的包含情况(图 2).只有当待解释的知识体系完全 被目标知识体系所包含时,才可能进行完全解释,否则只能进行部分解释.在 XRL 中,完全解释通常是不必要的.

一方面,待解释知识体系和目标知识体系的边界难以确定,导致完全解释难度高且耗费巨大;另一方面,实现对 模型的解释通常不需要建立在对模型完全掌握的基础上.因此,部分解释是大部分可解释性研究中采用的方法, 即只描述算法的主要决策逻辑.

f957da2d70a3f6252e5763aee5d50939.png

2.3 可解释性的影响因素 

一个观点认为,传统 ML(RL 为其子集)方法是易于解释的,而深度学习的引入使得可解释性产生了短板,导 致 ML难于解释,因此 ML 解释的本质是对深度学习的解释[21] .这与可解释性领域的认知相悖[28] .这一观点只 关注模型而忽略了人在可解释性中的地位.对于人而言,即使是理论上可被理解的模型,当规模扩张到一定程度 时,仍然会导致整体的不可理解.本文对可解释性的影响因素进行如下定义: 

透明度:待解释模型结构的简洁程度; 

模型规模:待解释模型包含的知识量和知识组合多样化程度; 

本文认为,可解释性是对模型组件透明度和模型规模的综合描述.透明度和模型规模是影响可解释性的两 个主要因素.具体来说,可解释性强意味着同时具备高透明度和低复杂度,而单一因素,如复杂度高或透明度低 将导致模型的弱可解释性(图 3). 

在不同语境下,“透明”一词具有不同的含义.例如,在软件结构中,透明指的是对底层过程的抽象程度,意味 着上层程序无需关注底层的实现.类似的,透明度在可解释性领域也存在不同的含义,如文献[26] [27] 认为透明 度是模型可以被理解的程度,将透明度与可解释性等价.以强化学习为例,基于值表的强化学习算法在规模一定 时通常具有更强的可解释性,而使用深度学习拟合值表则可解释性更弱,这是因为通过查询值表而产生策略的 过程符合人的直观理解,但神经网络传播过程仅在数学上可被准确描述,于人而言透明度更低.然而,这一思考 将构建模型的基础结构作为可解释性的重点,而忽略了模型规模对解释带来的难度,并忽略了解释的目标—— 人.因此,为突出模型规模对解释的影响,我们仅将透明度狭义理解为待解释模型的结构的简洁程度. 

模型规模从人理解能力的角度衡量解释的难度.具体来说,假设模型中的知识由一系列元知识构成,则模 型规模表示元知识总量和知识之间组合的多样化程度,而解释的难度一定程度上取决于模型规模,当模型规模 超过特定范围(人的理解能力)时模型将无法被理解.例如,线性加性模型、决策树模型、贝叶斯模型,由于计算过 程简洁,使我们能够轻易了解模型基于何因素得到何种结果,因此被认为是易于理解的.然而,当模型规模逐渐 庞大时,各因素之间的逻辑不可避免地相互交织,变得错综复杂,使我们最终无法抓住其主从关系.对于以简洁 结构(如决策树分支)构成的大规模模型,虽然所有结果在理论上有迹可循,但当模型规模已超越人类的理解能 力,导致系统整体将仍然不具备可解释性.

1660719bbde785357fe5d6dc7a5d8eec.png

2.4 可解释性的程度划分 

人的学习过程与强化学习过程存在一定的相似性,因此,如果将人脑看作目前最先进的智能模型,则人对 模型的理解不仅仅是人对模型的直观感受,也是一个先进的智能体对强化学习模型的综合评估.然而,一个无法 理解的模型不可能被有效评估,因此对模型的解释成为人理解模型的媒介.作为人和模型之间媒介,可解释性算 法不同程度的具备两个相互平衡特点:接近模型和接近人的感知.具体来说,不同的解释有的更注重准确的描述 模型,而另一些更注重与人的感知一致.基于这一概念,本文将可解释性分为如下三个层次:

(1) 数学表达: 通过理想化的数学推导解释模型.数学表达是使用数学语言简化模型的表达.由于强化学 习模型建立在数学理论的基础上,因此通过数学表达可以准确地描述和重构模型.虽然数学理论体 系是人描述世界的一种重要方式,但其与人的普遍直觉之间存在较大差异.以深度学习为例,虽然存 在大量文章论证了其在数学上的合理性,但深度学习方法仍然被认为是不可解释的.因此,数学的表 达能够在微观(参数)层面对模型进行描述,但难以迁移至人类知识体系;

(2) 逻辑表达: 通过将模型转换为显性的逻辑规律解释模型.逻辑表达是对模型中主体策略的提取,即忽 略其细微分支,凸显主体逻辑.一方面,逻辑表达保留了模型的主体策略,因此与模型真实决策结果相 近,解释本身可以部分重现模型的决策;另一方面,逻辑表达简化了模型,符合人的认知.逻辑表达是较 为直观的解释,但需要人具备特定领域的知识,是面对人类专家的解释,而对一般用户尚不够直观; 

(3) 感知表达: 通过提供符合人类直觉感知的规律解释模型.感知表达基于模型生成符合人类感知的解 释,由于不需要人具备特定领域的知识,因此易于理解.例如,可视化关键输入、示例对比等解释形式 都属于感知表达的范畴.然而,感知表达通常是对模型策略的极大精简,因为无法重现模型的决策,导 致其只解释决策的合理性. 

在可解释性的三个层次中,数学表达作为第一个层次,也是构建强化学习算法的理论基础.在已知模型所 有参数的情况下,数学表达通常可以较为准确的推断出模型的结果,然而,数学上的合理性不意味着能被人所理 解;逻辑表达介于数学表达和感知表达之间,是对模型策略的近似,但逻辑表达方法产生的解释通常要求用户具 备特定领域的专业知识;感知表达对模型决策的重要因素进行筛选,并使用清晰、简洁的形式进行呈现,虽然结 果易于理解,但已经不具备重构策略的能力.总而言之,不同的解释在接近模型和接近人类感知之间存在着平 衡,难以兼顾.

3 强化学习可解释性的独有问题 

与其他 ML 方法不同,RL 问题由环境、任务、智能体三个关键因素组成.其中,环境为给定的具有一定内部规律的黑盒系统;任务为智能体为最大化其平均奖赏的而拟合的目标函数;策略是智能体行为的依据和一系 列行为之间的关联.根据强化学习的三个关键组成因素,本文归纳出 XRL 的三个独有问题,即环境解释,任务解 释,策略解释.三个独有问题之间存在着密切的关联,与整个强化学习过程密不可分,是实现强化学习解释直接 面临的问题.

4 强化学习可解释性研究现状 

由于 XRL 涉及的领域广泛,学者从各领域的角度出发,导致所提出的方法具有较大差异.因此,本节分两步 对相关方法进行总结.首先,根据技术类别和解释的展现形式,将现有方法分为视觉和语言辅助解释、策略模仿、 可解释模型、逻辑关系提取和策略分解五个类别.然后,在通用分类方法(即获取解释的时间、解释的范围)的基 础上,结合本文所提出的分类依据(即解释的程度,面对的关键科学问题),确定不同类别方法的属性.

在可解释性领域中,分类通常基于获取解释的时间和解释的范围两个因素[31] .具体而言,根据获取解释的 时间,可解释性方法被分为固有(intrinsic)解释和事后(post-hoc)解释.固有解释通过限制模型的表达,使模型在运 行时生成具备可解释性的输出.例如,基于较强可解释性的原理和组件(决策树、线性模型等)构造模型,或者通过 增加特定过程使模型生成可解释性的输出;事后解释是通过对模型行为的分析,总结模型的行为模式,从而达到 解释的目的.通常而言,固有解释是策略产生过程中的解释,特定于某个模型,而事后解释是策略产生后的解释, 与模型无关.根据解释的范围,可解释性方法被分为全局(global)解释和局部(local)解释,全局解释忽略模型的微 观结构(如参数、层数等因素),从宏观层面提供对模型的解释,局部解释从微观入手,通过分析模型的微观结构获 得对模型的解释.

除上述可解释性的通用分类之外,本文基于解释与模型和人类感知的符合程度,将可解释性方法分为数学 表达、逻辑表达和感知表达三类(见 2.4 ).这三类可解释性方法体现出可解释性算法在解释的形式、解释与模 型结果的近似程度和解释的直观度等方面的区别.前文(见 3 )分析了 XRL 面临的 3 个关键问题,即环境解释, 任务解释和策略解释.目前,单个 XRL 方法难以同时解决三类问题,因此,我们也以此为依据,对当前 XRL 方法所 着眼的问题进行区分. 

综上所述,本文以“获取解释的时间”、“解释的范围”、“解释的程度”以及“关键问题”为依据,对 XRL 方法 进行分类(见表 1).由于算法多样,表 1 仅显示大类别算法的特点,部分算法可能不完全符合

f6a846ecd5e062f7893ddeb58e2526d1.png

总结 

本文以 XRL 的问题为中心,讨论了该领域的基础问题,并对现有方法进行总结.由于目前在 XRL 领域,乃至 整个 XAI 领域尚未形成完整、统一的共识,导致不同研究的基础观点存在较大差异,难于类比.本文针对该领域 缺乏一致认知的问题,进行了较为深入的研究工作.首先,本文参考 XRL 领域的父问题——XAI,收集 XAI 领域 的现有观点,并整理出 XAI 领域较为通用的认识;其次,以 XAI 领域的定义为基础,讨论 XAI 与 XRL 面临的共同 问题;然后,结合强化学习自身的特点,提出 XRL 面临的独有问题;最后,总结了相关的研究方法,并对相关方法进 行分类.分类中包括作者明确指出为 XRL 的方法,也包括作者虽未着重强调,但实际对 XRL 有重要意义的方法. XRL 目前尚处于初步阶段,因此存在大量亟待解决的问题.本文重点提出环境和任务的解释、统一的评估标准 两类问题.本文认为这两类问题是为类 XRL 领域的基石,是值得重视的研究领域.

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

6d4685c9647f0dc6df19ea3b9c5e1d47.png

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/482730.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

3.1_ 6_ 基本分页存储管理的基本概念

3.1_ 6_ 基本分页存储管理的基本概念 文章目录3.1_ 6_ 基本分页存储管理的基本概念思维导图思考:连续分配方式的缺点把“固定分区分配”改造为“非连续 ”分配版本分页存储管理的基本概念思考:如何实现地址的转换逻辑地址结构页表知识回顾思维导图 思考:连续分配方式的缺点 把“…

瞭望丨光子芯片能否让中国“换道超车”

第四届进博会技术装备展区集成电路专区现场(2021年11月5日摄) 张建松来源:新华社新闻摄:瞭望文:米磊 ◇ 信息时代的基础设施是电子芯片(集成电路),人工智能时代将更多地依托光子芯片…

3.2_ 1_ 虚拟内存的基本概念

3.2_ 1_ 虚拟内存的基本概念 文章目录3.2_ 1_ 虚拟内存的基本概念知识总览传统存储管理方式的特征、缺点局部性原理虛拟内存的定义和特征如何实现虚拟内存技术知识回顾知识总览 传统存储管理方式的特征、缺点 局部性原理 虛拟内存的定义和特征 如何实现虚拟内存技术 知识回顾

3.2_ 2_ 请求分页管理方式

3.2_ 2_ 请求分页管理方式 文章目录3.2_ 2_ 请求分页管理方式知识总览页表机制缺页中断机构地址变换机构知识回顾知识总览 页表机制 缺页中断机构 地址变换机构 知识回顾

[KMP]一本通(http://ybt.ssoier.cn:8088) 1698:字符串匹配

字符串匹配 【题目描述】 对于一个字符集大小为C的字符串pp,可以将任意两个字符在p中的位置进行互换,例如p12321,交换1、21、2得到21312,交换1、4得到42324,交换可以进行任意次。若交换后p变成了字符串q,则…

​两院院士评选“2021年中国/世界十大科技进展新闻”揭晓

来源:科学网由中国科学院、中国工程院主办,中国科学院学部工作局、中国工程院办公厅、中国科学报社承办,中国科学院院士和中国工程院院士投票评选的2021年中国十大科技进展新闻、世界十大科技进展新闻于2022年1月18日在京揭晓。此项年度评选活…

脑机综述(一) | 脑机接口在康复医学中的应用进展

来源:《中国康复医学》杂志 、臻泰智能论文《脑机接口在康复医学中的应用进展》琚芬1,赵晨光1,袁华1,牟翔1,王冰水2【关键词】 脑机接口;运动功能…

SpringBoot-短信验证码-快速入门Demo(含redis)(手把手教你开通阿里云短信服务到写出个最终代码来)

B站小狂神-此博客的内容就是看了这个视频的总结(博主自己写的哦~并非转载) 视频链接-【狂神说】通俗易懂的阿里云短信业务实战教程(露脸) 您是否还在为别人的项目有短信功能自己的却没有? 您是否还在为自己的项目没有短…

Bresenham快速画直线算法

现在的计算机的图像的都是用像素表示的,无论是点、直线、圆或其他图形最终都会以点的形式显示。人们看到屏幕的直线只不过是模拟出来的,人眼不能分辨出来而已。那么计算机是如何画直线的呢,其实有比较多的算法,这里讲的是Bresenha…

国产光刻机正式宣布:今年出货150台

来源:世界先进制造技术论坛在芯片领域,有一个叫光刻机的设备,不是印钞机,但却比印钞机还金贵。全球只有荷兰一家叫做阿斯麦(ASML)的公司集全球高端制造业之大成,一年时间造出二十台高端设备&…

元宇宙的“42条共识”

来源: 量子学派*以下内容、图片综合自《图说元宇宙》《设计元宇宙》系列01元宇宙不是一天建成的罗马不是一天建成的,元宇宙也一样。人类从未像今天这样,可以自己成为“创世主”。元宇宙融合了信息技术(5G/6G)、互联网时…

手把手教你用java读写excel表格文件(POI,EasyExcel)

视频链接-我是学习之星我为狂神打call~ 【狂神说Java】POI及EasyExcel一小时搞定通俗易懂 想给项目添加一个表格导入导出功能吗? “xxx管理系统”没有导入导出功能逼格不够了? 想简单入手下 how to 用java 生成excel又找不到合适的教程? com…

欢迎参加2022年第一次《城市大脑建设标准规范》专家研讨会

来源:世界数字大脑标准研究组2018年以来,城市大脑正成为智慧城市和智能产业的新热点,有近500个城市提出城市大脑的建设规划,数千家大中型科技企业进入城市大脑的建设领域。如何理清城市大脑的概念和定义,制定统一的城市…

Spring常用注解的讲解

转载,原文链接 作者:字母哥博客 本文出自:springboot深入浅出系列 文章目录一、常用注解回顾1.1 RequestBody与ResponseBody1.2. RequestMapping注解1.3. RestController与Controller1.4. PathVariable 与RequestParam二、接收复杂嵌套对象参…

复杂系统与人工生命:十年研究概览

来源:集智俱乐部作者:Thomas McAtee、Claudia Szabo译者:陈翔 审校:刘培源编辑:邓一雪导语人工生命(artificial life)是通过仿真建模、机器技术和生物化学等方式模拟自然生命系统,进…

5.1传输层概述

5.1传输层概述 文章目录传输层概述传输层的两个协议传输层的寻址与端口传输层概述 传输层的两个协议 传输层的寻址与端口

多细胞生命进击之路:单细胞为何放弃自由,长成复杂的多细胞?

来源:集智俱乐部作者:Veronique Greenwood译者:赵雨亭审校:张澳编辑:邓一雪导语人类作为复杂的多细胞生命,似乎理所当然地认为,多细胞生命相对单细胞生命有绝对的优势。但实际上单细胞生命进化为…

5.2 UDP协议

5.2 UDP协议 文章目录用户数据报协议udp概述udp首部形式udp校验用户数据报协议udp概述 udp首部形式 udp校验

焦李成院士:进化优化与深度学习的思考

来源:AI科技评论作者:焦李成整理:维克多编辑:青暮2021年12月17日,西安电子科技大学人工智能学院教授、欧洲科学院外籍院士、IEEE Fellow焦李成受邀参加2021中国计算机大会“下一代演化计算发展趋势”论坛,并…

5.3.1 TCP协议特点和TCP报文段格式

5.3.1 TCP协议特点和TCP报文段格式 文章目录tcp协议的特点tcp 报文段首部格式tcp协议的特点 tcp 报文段首部格式