论文阅读_用模型模拟记忆过程

英文名称: A generative model of memory construction and consolidation
中文名称: 记忆构建和巩固的生成模型
文章: https://www.nature.com/articles/s41562-023-01799-z
代码: https://github.com/ellie-as/generative-memory
作者: Eleanor Spens, Neil Burgess,伦敦大学认知神经科学研究所,伦敦大学皇后广场神经病学研究所
日期: 2024-01-19

1 读后感

作者试图用深度学习模型来模拟人的记忆过程。论文发表在 Nature Human behaviour,收稿日期(Received)2023.5.30,发表日期是 2024.01.29。可能因为审稿时间太长,AI 领域这两年又发展太快,技术栈看起来并不是很新,如果现在做,可能有更好的方法。不过还好这是一般偏认识的论文,两位作者是认知科学和神经病学的科学家。

从技术角度看,主要使用了现代霍普菲尔德网络(MHN),变分自编码器 VAE,以及 Teacher-Student 方法,虽然都是已有技术,但作者用它们模拟了人脑思维过程,提出了一些假设,将模型的不同组件与大脑中的各个结构对应。并且讨论了 VAE 抽象过程中表现出来的与人脑类似的性质。

从认知角度看,把认知拆解成了可重现的概念和不可重现的感受,比如一个动物出现在森林里,在森林这个场景里,树被认为是可重现的,动物认为是不可重现的。

从研究角度看,目标是解析记忆的过程,挖掘主要特征;实现从具象到抽象的过程;研究巩固、回忆,想象,推理,遗忘的内部机制;以及人脑如何在具象和抽象概念之间进行转换和结合。

其背后的逻辑是:人的记忆并不是如实记录客观实现,而是进行了处理和压缩;回忆也不是检索而是重构,这很像 变分自编码器 的原理,其中客观世界是 x,记忆是 z(可进一步拆分),回忆是 x-。(人眼中的世界很大一部分是根据之前的记忆脑补出来的

实验设计也很有意思,发现模型也与人类一致的思维扭曲倾向,从而阐释了记忆失真,夸张,贴标签,诱导的生物学解释。

因为医学论文和技术论文写法不太一样,我还是按:引言、方法&结果的方式(文中方法和结果中细项几乎是一一对应的)做了简单整理。原文内容很丰富,且此篇免费下载。另外,论文以外,我加入的信息和想法用括号斜体标出。

2 摘要

目标:用生成模型模拟记忆过程,还分析了语义记忆、想象力、情景未来思维、关系推理和扭曲的机制。

方法:提出了一个计算模型,使用海马重放(自联想网络)训练生成模型(变分自编码器),从内嗅、内侧前额叶和前外侧颞叶皮质中的潜在变量表征重新创建感觉体验。(我第一次看时也很蒙,不过其实并不难,只是内容比较多

结果:提供了关于构建记忆、想象力和巩固的全面说明。

3 引言

“Episodic memory” 和 “Semantic memory” 是记忆的两种不同类型。(查自网络:Episodic memory 情景记忆非常具体,涉及到个人经历的特定事件或情景。这些记忆通常有时间和地点的标记,如你第一次骑自行车的记忆;Semantic memory 语义记忆涉及到一般的世界知识,包括事实、概念、名字、类别、属性等。这些记忆与特定的个人经历无关)。

前者被认为可以通过海马体(HF)的长期增强来快速捕捉多模式体验,从而使后者能够学习新皮质中多种体验的统计规律。至关重要的是,情景记忆被认为是具有可建性的,回忆是对过去经验的(重新)构建,而不是检索副本

最初在海马体中编码的记忆最终会被存储在新皮质区域,这个想法被称为“系统巩固”,巩固还将信息转化为更抽象的表示,这个过程有时被称为语义化。另外,神经影像学证据表明回忆和想象力涉及相似的神经过程。

记忆系统通过学习和存储模式来帮助我们预测和理解经验,其中熟悉的内容以概念形式存储,而新奇内容则详细记录。随着时间的推移和记忆的巩固,我们的大脑会更新这些模式,使得最初难以预测的细节最终不再需要额外存储。

3.1 巩固构建生成模型

通过训练生成网络来重构记忆,使得记忆更加抽象化、有利于泛化和关系推理,但也更容易被扭曲。生成网络可以用于重构记忆或构建想象,并支持语义记忆和关系推理。

在记忆整合之前,海马自联想网络会对记忆进行编码。使用现代霍普菲尔德网络(MHN)来实现这个过程,它可以将事件激活的特征单元与一个记忆单元绑定在一起。通过教师 - 学生学习,将记忆从一个神经网络传输到另一个神经网络。因此,使用自联想网络的输出来训练生成网络,整合后,生成网络会对记忆中的信息进行编码。随着时间的推移,越来越依赖生成网络(巩固),因为它们学会了重构特定事件。

生成网络以变分自编码器(VAE)的形式实现,通过压缩数据并将其表示为潜变量,从而生成与训练数据集相似的新样本。VAE 编码器将感知经验转化为潜在变量,解码器将潜变量转化回感知信息,生成网络捕捉事件或“模式”的概率分布,用于重建特定类型刺激的规则或预期概率分布。例如,办公室的模式预测了桌子和椅子等共同出现的物体,有助于生成情节。

生成模型通过计算输入和输出之间的差异来判断事件的新颖性。一旦生成网络能够准确地重建输入,就不再需要海马痕迹。

3.2 在情景记忆中结合的概念和感觉特征

研究表明,将每个感觉细节都编码到海马体中是低效的,高效的系统应该利用记忆之间的共享结构,只编码必要的内容。因此,建议将可预测的元素编码为概念特征,而将不可预测的元素编码为感觉特征。

假设有人在森林中看到一只动物,对于森林这个模式,树是可预测的,动物是不可预的。在扩展模型中,生成模型计算每个元素的重建误差,并将具有高重建误差的元素编码为感知特征(不可被预测),以及与生成模型的潜变量表示相关联的概念特征(可被预测)。

3.3 模型的神经机制

自联想网络模拟海马到新皮质的成分,生成网络涉及将新皮层的输入投射到更高级联皮层中的潜变量表示。嗅皮层 (EC)、前额叶皮层 (mPFC) 和前外侧颞叶 (alTL) 都是潜变量表示的主要候选。

内嗅皮质 EC 是海马体和新皮质之间的主要路线(接收来自大脑的各个皮层区域的信息,然后将这些信息传输到海马体。海马体也将信息返回到 EC,然后再传输回大脑的其他区域);内侧前额叶皮层 mPFC 在情景记忆处理中发挥着至关重要的作用,被认为对模式进行编码,涉及传递推理和记忆整合,并通过压缩不相关的特征来执行降维;与语义记忆和逆行性遗忘相关的内侧前额叶皮层 alTL 可能包含捕获语义结构的潜变量表征。

可以同时训练多个生成网络,每个网络利用回放,针对不同的任务进行优化,以减小误差,如一个主要的 VAE 包含 EC 中的潜变量,以及从更高级感觉皮层到 EC 的额外平行通路,包含 mPFC 或 alTL 中的潜变量。另外,还需要解码器将潜在变量解码为感觉体验。

4 方法&结果

建模过程中,训练得到 VAE 网络参数。

使用模型时,支持以下几种情况:

  • 左图:输入一个不太清楚的图像,通过压缩(抽象)再复原,产生一张清晰的图像。(有时候用扫一眼就明白,很大一部分是我们根据旧知识脑补出来的
  • 中图:想象,通过一些抽象的概念(可能是指定的,可能是从潜空间随机抽取的),生成具体的场景信息(写手通过想象把大概的内容描述得惟妙惟肖)。
  • 右图:概念,输入是一个现实中的场景,输出语义概念,以便压缩后存储和进一步和推理。

4.1 数据

实验使用了 Shapes3D,MINST 数据集,每个数据集使用一个 MHN,且每个数据集根据相应的 MHN 输出训练一个生成模型。

4.2 基本网络

4.2.1 方法

海马体快速编码一个事件,建模为自动联想网络(MHN)中的一次性记忆(图中红色),模型捕捉规律并记忆。(无法用它捕捉的可视为噪声,视为不适合进一步训练其它模型,因此,使用它的输出训练生成模型,而不是原始数据

利用师生学习实现“巩固”,其中自联想网络是“老师”,生成网络是“学生”,使用 VAE 实现(图中蓝色),进行压缩和分解,它接受“老师”重放表示的训练,通过捕获经历事件的统计结构来学习重建记忆。以得到粗粒度的概念(如森林场景中的树,可预测)以及细粒度的感觉(如随机出现的动物,不可预测)。

随着对森林场景的累积(巩固),模型进一步细化和扩充,直到 VAE 的输出与 VAE 的输入差别足够小,即可认为学到了森林相关的足够知识;在这个过程中用 VAE 逐步替换 MHN。在可直接使用 VAE 后,海马轨迹被标记为可删除或可被覆盖。

损失函数是重建误差和 KL 散度之和;前者鼓励精确重建,而后者鼓励生成一个可以从中采样的潜空间。

模拟过程中,遗忘的主要原因是生成模型中新记忆的干扰;回忆的输入是编码刺激图像的噪声版本;模型支持多模态数据。

4.2.2 结果

每个新事件都被编码为海马体中的自联想网络。该网络有两个重要的特性:只需要一次接触就能记住(编码);网络可根据输入检索整个记忆集合中的存储记忆(模拟回放),将回忆视为根据部分输入重新构建场景;然后使用自联想网络的预测结果训练生成网络;然后将可预测部分用生成网络构建,不可预测的部分使用海马存储。

4.3 语义记忆建模

4.3.1 方法

将语义记忆定义为将隐藏变量解码为语义信息的能力,通过训练支持向量机对网络的隐藏变量进行分类来衡量解码准确性,并发现利用压缩的“语义”表示进行少样本学习是可能的。

4.3.2 结果

测试了如何在海马体和 EC 等病变的情况下,以“语义形式”检索遥远的记忆。当 HF(包括 EC)被移除时,模型仍然可以支持语义信息的检索,证明了语义记忆与海马体无关。

4.4 想象和推理建模

4.4.1 方法

在生成网络中,新的项目可以通过外部指定的或随机抽样的潜变量生成,也可以通过转换特定事件的潜变量表示生成。前者通过从潜空间中的类别进行抽样,然后解码结果来模拟。后者通过在事件的潜在表示之间进行插值或在潜在空间中进行向量运算来模拟。(此处展示抽象思考的原理

4.4.2 结果

利用生成网络的潜变量,对生成尚未经历过的事件进行建模。事件可以通过潜在变量的外部规范(想象力)或通过转换特定事件的潜在变量表示(关系推理)来生成。

图 -3 的 b,c,d 分别示例了推理,插值,语义重建场景的效果。

4.5 基于模式的扭曲建模

4.5.1 方法

基于模式的扭曲指的是:生成网络生成的内容将变得更加典型。研究使用 MNIST 数据集训练模型。实验结果表明,回忆的类内变异性较小,且在像素空间和潜在空间中都显示出更紧凑的聚类。

4.5.2 结果

人类情景记忆会随着时间和睡眠而产生基于模式的扭曲,而生成网络的回忆会将记忆扭曲成更加典型的表示。

4.6 模拟边界延伸和收缩

4.6.1 方法

边界扩展和收缩是记忆中对观察到的视野进行扩大或收缩的倾向。具体取决于观察到的物体距离,近距离导致边界扩展,远距离导致边界收缩。使用的测试图像修改自训练期间未见过的 Shapes3D 图像。

4.6.2 结果

如图 4 的 e,f,g 所示,图 e 中第一行为输入,第二行为输出;可以看到模型倾向于将过小的内容放大,而将过大的缩小。(这有点像视觉的聚焦效果

4.7 扩展模型

结合可预测的概念特征和不可预测的感官特征。

4.7.1 方法

对于一张新的图像,通过 VAE 计算每个像素的预测误差(即 VAE 输入和输出之间的差异)。那些重建误差超过阈值的像素构成了不可预测部分,而 VAE 的潜在变量构成了可预测部分,这些组成部分被合并编码在 MHN 中。

重建时,通过解码存储的潜变量,获得与概念组成部分对应的图像。通过将初始的感觉新皮层中的原始重建用海马体中存储的感觉特征覆盖,重新组合可预测和不可预测元素。如图 -5 a,b 所示,低阈值时,MHN 记住了更多细节。

随着生成网络的学习,潜变量的表示并不稳定。作者认为从潜变量衍生的概念比潜变量本身更有可能被存储,从而促进海马表征的稳定性,如使用上述的语义模型。

另外,再使用生成效果和海马回放来训练生成网络,让它不仅学习新记忆,还学习自己生成的表示。如同睡眠的某些阶段有助于保留远期记忆,而其他阶段则有助于巩固新记忆。以便减少新学习对生成网络中远期记忆的干扰,并使扩展模型中的海马回路表示更加稳定。

4.7.2 结果

扩展模型能够利用生成网络从其潜变量重建事件的可预测方面,仅存储那些在自联想网络中预测不佳的感官细节。随着生成网络的改进,存储在海马体中的感觉特征可能不再与感觉新皮质中的重建有显着差异,这表明不再需要海马体表示。

4.8 扩展模型中基于模式的扭曲

4.8.1 方法

我们通过操纵“事件”的概念组件,在扩展模型中展示了记忆的情境调制。将原始图像与给定概念(立方体或球体)的激活一起存储在自联想网络中。在回忆过程中,使用生成网络处理噪声输入,产生预测的概念特征和未被原型预测到的感觉特征。通过模型,可以恢复最初编码的感觉和概念特征,并将它们重新组合以产生最终输出。

DRM 任务是一种用于衡量基于要点的记忆失真的经典方法。它是向参与者展示与一个“诱饵词”在意义上相关的单词列表,但该诱饵词并不在列表中。参与者往往会错误地辨认和回忆起这个诱饵词。

4.8.2 结果

基本模型中显示的基于模式的扭曲是由生成网络引起的。在扩展模型中,即使是立即回忆也涉及概念和感官特征的组合,而概念特征的存在会在特定记忆巩固之前引起扭曲。总的来说,由于概念表示的影响,编码后的回忆偏向于类别的“平均值”。因为更多地依赖于“典型”表示。在较低的错误阈值下,会编码更多的感官细节,这导致较低的重构误差,使扭曲较小,但效率较低。

外部环境进一步扭曲了记忆。参考文献 95 要求参与者复制模糊的草图。通过告诉参与者他们将看到某个类别的图像来建立上下文。从记忆中绘制的图像被扭曲成更像上下文类别。模型回忆也会偏向于作为上下文提供的类别。

在 DRM 实验中,与人类数据一样,诱惑词经常但并不总是被记住。因为生成列表中单词的潜变量表示也倾向于生成诱饵词。系统还会忘记一些单词并产生额外的语义干扰。此外,对于较长的列表,模型回忆起诱饵词的机会更高。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/686713.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

智慧供应链控制塔大数据解决方案

一、供应链控制塔的概念定义 (1) Gartner 的定义: “控制塔是一个物理或虚拟仪表板,提供准确的、及时的、完整的物流事件和数据,从组织和服务的内部和跨组织运作供应链,以协调所有相关活动。”、“供应链控制塔…提供供应链端到端整体可见性和近实时信息和决策的概念……

深入解析Mybatis-Plus框架:简化Java持久层开发(二)

🍀 前言 博客地址: CSDN:https://blog.csdn.net/powerbiubiu 👋 简介 本章节开始从实际的应用场景,来讲解Mybatis-Plus常用的一些操作,根据业务场景来进行增删改查的功能,首先先搭建一个项目…

内容检索(2024.02.17)

随着创作数量的增加,博客文章所涉及的内容越来越庞杂,为了更为方便地阅读,后续更新发布的文章将陆续在此汇总并附上原文链接,感兴趣的小伙伴们可持续关注文章发布动态! 本期更新内容: 1. 信号完整性理论与…

印度基金低风险套利回顾

2024年1月19日当天,印度基金(164824)开放申购,限额申购100元,当天溢价率13%左右,这个溢价率已经非常可观了,当然要祭出一拖七大法搞它一把! 一拖七套利原理简介 详细的原理和方法可自行在雪球搜索&#…

ACM题解Day4 | Boring Non-Palindrome ,Mental Rotation ,so Easy

学习目标: 博主介绍: 27dCnc 专题 : 数据结构帮助小白快速入门算法 👍👍👍👍👍👍👍👍👍👍👍👍 ☆*: .。. o(≧▽…

时间序列预测模型:ARIMA模型

1. ARIMA模型原理介绍 ARIMA模型,全称为自回归积分滑动平均模型(Autoregressive Integrated Moving Average Model),是一种常用的时间序列预测方法。ARIMA模型通过对时间序列数据的差分化处理,使非平稳时间序列数据变…

鸿蒙系统优缺点,能否作为开发者选择

凡是都有对立面,就直接说说鸿蒙的优缺点吧。 鸿蒙的缺点: 鸿蒙是从2019年开始做出来的,那时候是套壳Android大家都知晓。从而导致大家不看鸿蒙系统,套壳Android就是多次一举。现在鸿蒙星河版已经是纯血鸿蒙,但是它的…

点亮代码之灯,程序员的夜与电脑

在科技的海洋里,程序员是那些驾驶着代码船只,穿梭于虚拟世界的探险家。他们手中的键盘是航行的舵,而那台始终不愿关闭的电脑,便是他们眼中永不熄灭的灯塔。有人说,程序员不喜欢关电脑,这究竟是为什么呢&…

SSM框架,spring-aop的学习

代理模式 二十三种设计模式中的一种,属于结构型模式。它的作用就是通过提供一个代理类,让我们在调用目标方法的时候,不再是直接对目标方法进行调用,而是通过代理类间接调用。让不属于目标方法核心逻辑的代码从目标方法中剥离出来…

PPT导出PDF时保持图像高清的方法

问题: 我们经常会发现,在PPT中插入的图片非常高清,但是通过PPT转换为PDF之后,图片就会出现不同程度的失真。 问题产生的原因: 这是因为Acrobat的PDF Maker在将PPT转换为PDF的时候,对PPT中的图片进行了压缩 Solution: 在PPT的…

博途PLC数值积分器(矩形梯形积分自由切换)

数值积分器的相关介绍,大家可以也可以参看下面几篇文章,链接如下: PLC算法系列数值积分器 https://rxxw-control.blog.csdn.net/article/details/128562853https://rxxw-control.blog.csdn.net/article/details/128562853SMART PLC 梯形和矩形积分 https://rxxw-control.…

【数据结构】18 二叉搜索树(查找,插入,删除)

定义 二叉搜索树也叫二叉排序树或者二叉查找树。它是一种对排序和查找都很有用的特殊二叉树。 一个二叉搜索树可以为空,如果它不为空,它将满足以下性质: 非空左子树的所有键值小于其根节点的键值非空右子树的所有键值都大于其根结点的键值左…

2.16学习总结

1.邮递员送信(dijkstra 不只是从起到到目标点,还要走回去) 2.炸铁路(并查集) 3.统计方形(数据加强版)(排列组合) 4.滑雪(记忆化) 5.小车问题(数学问题&#x…

无人机系统组装与调试,多旋翼无人机组装与调试技术详解,无人机飞控系统原理

多旋翼无人机飞控系统的组装 在开始组装前,确保您已准备好所有必要的工具和材料。这包括螺丝刀、电烙铁、焊台、杜邦线、飞控板、GPS模块、电机、桨叶等。 飞控安装 安全开关安装,将安全开关固定在机架上。将安全开关的线插到飞控SWITCH插口上。 电调…

【半监督图像分割 2023 】BHPC

【半监督图像分割 2023 】BHPC 论文题目:Semi-supervised medical image segmentation via hard positives oriented contrastive learning 中文题目:通过面向硬阳性的对比学习进行半监督医学图像分割 论文链接: 论文代码:https:/…

亚马逊、国际站、速卖通新店怎么销量破冰?自养号测评爆款打造思路

亚马逊作为全球最大的电子商务平台之一,吸引了众多卖家进驻其平台。对于新店铺来说,如何在竞争激烈的市场中突破销量瓶颈,成为卖家们关注的焦点。 一、亚马逊新店怎么销量破冰? 优化商品信息:在亚马逊平台上&#xff…

牛客网SQL进阶128:未完成试卷数大于1的有效用户

官网链接: 未完成试卷数大于1的有效用户_牛客题霸_牛客网现有试卷作答记录表exam_record(uid用户ID, exam_id试卷ID, st。题目来自【牛客题霸】https://www.nowcoder.com/practice/46cb7a33f7204f3ba7f6536d2fc04286?tpId240&tqId2183007&ru%2…

【深度学习】Pytorch 系列教程(三):PyTorch数据结构:2、张量的数学运算(1):向量运算(加减乘除、数乘、内积、外积、范数、广播机制)

文章目录 一、前言二、实验环境三、PyTorch数据结构0、分类1、Tensor(张量)1. 维度(Dimensions)2. 数据类型(Data Types)3. GPU加速(GPU Acceleration) 2、张量的数学运算1. 向量运算…

蓝桥杯真题:扑克牌移动

import java.util.*; public class Main {public static List moveCard(List src){if(srcnull) return null;List dst new Vector();for(;;){if(src.size()0) break; // 填空src.add(src.remove(0));//remove(0) 是一个 List 接口中的方法调用,它表示移除列表中指…

Sentinel注解@SentinelResource详解

Sentinel注解SentinelResource详解 熔断 针对访问超过限制【sentinel中配置的限制】的资源,通过java代码配置,返回一个自定义的结果,需要用到 SentinelResource 注解的 blockHandlerClass 和 blockHandler 属性。 blockHandlerClass&#…