神经形态计算的物理学

acb011d67065035eb69a5581edcfb187.png

来源: 集智俱乐部

作者:张晓雨

编辑:邓一雪 

摘要

神经形态计算(neuromorphic computing)从脑科学汲取灵感来为信息处理创造节能硬件,并能适应高度复杂的任务。2020年发表在 Nature Reviews Physics 上的一篇文章给出了重新发明电子元件来设计神经形态计算硬件的必要性。研究表明,物理和材料科学研究是创造人工纳米神经元和突触,将它们大规模联系起来,在复杂系统中组织它们,并用它们进行高性能运算的关键。作者们描述了两种研究人员汲取灵感的途径,一种是从人工智能中汲取灵感,另一种是从神经科学中汲取灵感,文章强调了最近这两种途径获得的惊人成就。最后讨论了神经形态计算物理学的挑战和前景,包括算法和硬件的联合开发,在小型玩具系统中取得的重大进展以及大尺度网络的构建。

研究领域:神经形态计算,神经网络,神经科学

986810294fd7a0f994acc8ce87891f4c.png

论文题目:

Physics for neuromorphic computing

论文链接:

https://www.nature.com/articles/s42254-020-0208-2

1. 为什么我们要从大脑中汲取灵感?

生物的大脑能执行极其复杂的任务,而且计算的能源预算非常低。相对地,虽然目前的数字计算机为高精度的计算进行了优化,但是当它们运行认知类型的任务时,会消耗大量能量。

无论是在算法还是在物理实现层面,大脑与人类制造的计算系统都有很大不同。算法层面,包含1011个神经元和1015个突触连接的人脑,是一个具有动态性和可重构性的复杂系统,可以从经验中学习。物理硬件层面,大脑的特点则是基于生物实体、利用细胞的随机性在非常低的能量状态下运作、同时使用二进制(单个尖峰)和模拟(体细胞动力学、突触权重)编码、使用集体行为来计算,这些方面数字电子产品都表现出局限性。

2. 为什么物理学和材料学

对神经形态计算至关重要?

在大脑中,神经元大致上可以被视为处理器,在突触的支持下可以直接访问存储器。相反,目前的电子技术在本质上讲,内存的计算分类成不同的物理单元,数据必须在它们之间来回传输,这个过程减慢了计算速度,大大增加了学习和推理的能量消耗。这种“冯·诺伊曼瓶颈”是人工智能算法的一个问题。

因此,神经形态计算的一般范式是从大脑的拓扑结构中获得灵感,建立由物理神经元组成的电路,这些神经元通过物理突触相互连接,并以非易失性的方式在原地实现存储,从而大大减少了在电路中传输数据的需求,并在速度和能源效率方面取得巨大收益。但是要建立由几百万个神经元和突触组成的低功耗芯片,仅使用互补金属氧化物半导体(CMOS)技术会让系统会变得很笨重,并且很难实现神经元之间的高度互联。

3. 大脑的这些一般特征如何转化为

对神经形态计算领域的重要贡献?

由于还没有大脑如何工作的精确模型,目前正在开发两类主要方法。第一类方法是将目前在人工智能中使用的传统神经网络算法映射到专用物理系统,以提高其实施的能源效率。当今最能解决实际应用的神经网络是深度网络,到目前为止,已经提出了两种可能的可扩展架构,用于使用物理在芯片上映射深度网络:混合 CMOS/忆阻系统(图1b)和光子系统(图1c)。在混合 CMOS/忆阻系统中,神经元由模拟或数字 CMOS 组成,流经网络的信息是电流。因此,为了调节信息流,突触应该充当电流的阀门。这种阀可以用忆阻器(“记忆电阻器”的缩写,也称为电阻开关器件)来实现。另一种可扩展到深度网络的神经形态计算方法是基于光子神经网络。这些网络可以仅由光学组件制成,也可以使用光电设备将光学与电子设备混合。实现神经元所需的非线性可以由克尔效应或半导体激光器中的载流子加热提供。

第二类方法是超越此类算法,从神经科学中汲取灵感,为人工神经网络配备额外的特征和动力学,以期实现更复杂的计算。因为信息可以以神经元的速率和它们之间的时间进行编码,所以重要的神经形态硬件研究专注于实现尖峰神经网络。但是大脑比当今的人工智能算法复杂得多,生物神经元不能被简化为它们的输入和输出之间的非线性函数。为了实现其他的突触和神经元特性,不同的仿生方法被研发出来进行电路设计,从而在大规模系统内进行协同集成,并实现学习算法。

5d1d47d2c5c995c593197b71572f0edb.png

图1:为深度神经网络开发的硬件。(a)深度神经网络由突触(箭头)连接的多层神经元(圆圈)组成。(b)忆阻交叉阵列连接两层神经元。插图表示单个忆阻器单元,垂直地连接一行和一列。突触前CMOS神经元(红色)对每行施加电压。每列的输出电流 Ij是所有输入电压 Vi 由忆阻器电导 Gij 加权后的总和。每一列的放大器驱动突触后CMOS神经元(蓝色)。(c)由圆形谐振器组成的光神经网络,将不同波长 λi 的输入(不同颜色)耦合到一个神经元(灰色)。突触(橙色方块)和神经激活函数(绿色方块)由相变材料实现。

4. 算法和物理计算基板应该齐头并进

设备层面存在两个主要挑战,即实现具有学习能力的神经形态系统。第一是精度,第二是在施加电压或电流的情况下执行与重量无关的重量变化。算法层面,首先要改进算法以便它们能够在物理硬件存在缺陷和不可靠性的情况下工作。再者因为大脑能够通过不可靠和随机的成分进行学习,应该有可能发明新的算法,允许使用不完美、动态和嘈杂的基本纳米设备进行学习,人们甚至可以想象利用纳米器件缺陷或动态进行信息处理的算法。开发小型物理神经形态系统来检验一些假设并得出了一些结论。作者通过描述自己的工作来说明这种方法,重点是开发由自旋电子纳米振荡器作为神经元组成的实验性玩具神经网络。

神经形态计算开发的最终目标是构建包含数百万个组件的大规模系统。因此,应注意研究可扩展的材料和物理。第一个挑战是,到目前为止,大多数神经形态研究小组都专注于开发大规模忆阻器阵列以用作突触或生物学上合理的神经元设备。密集且有效地互连纳米突触和纳米神经元是神经形态计算的一大难点。一个策略是利用物理学、材料科学和纳米技术在系统层面将神经网络密集连接,并达到每个神经元超过 1000 个突触的密度,接近大脑互连水平。在这个方向上的一个开创性想法是 3D 交叉网 (3D crossnets),其中忆阻器交叉开关阵列相互堆叠。用物理学实现大规模神经形态系统的第二个挑战是处理纳米器件的可变性。在片上训练网络是补偿这些设备变化的最佳方式。

在这篇文章中,作者强调了物理学与神经形态计算的相关性。神经形态计算是一个快速发展的领域,目前在其中测试了许多方法,并且都有其优点和缺点。未来神经网络硬件将使用哪些材料和物理原理的问题仍然是开放式的。

论文 Abstract

Neuromorphic computing takes inspiration from the brain to create energy efficient hardware for information processing, capable of highly sophisticated tasks. In this article, we make the case that building this new hardware necessitates reinventing electronics. We show that research in physics and material science will be key to create artificial nano-neurons and synapses, to connect them together in huge numbers, to organize them in complex systems, and to compute with them efficiently. We describe how some researchers choose to take inspiration from artificial intelligence to move forward in this direction, whereas others prefer taking inspiration from neuroscience, and we highlight recent striking results obtained with these two approaches. Finally, we discuss the challenges and perspectives in neuromorphic physics, which include developing the algorithms and the hardware hand in hand, making significant advances with small toy systems, as well as building large scale networks.

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

9cf05bb2e90f5e3eac0908c0d5202ea6.png

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/482215.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

13 计算机组成原理第七章 输入/输出系统 I/O方式 I/O接口

文章目录1 I/O接口1.1 接口定义1.2 I/O接口的功能(以单总线为例)1.3 I/O接口的基本结构1.4 接口与端口1.5 I/O端口及其编址1.6 I/O接口的类型1.7 I/O接口小结2 I/O方式2.1 I/O方式1-程序查询方式2.1.1 程序查询方式流程图2.1.2 程序查询方式接口2.1.3 程…

参与全球人工智能创新链竞争

来源:社科院工业经济研究所作者:郭朝先,中国社会科学院工业经济研究所研究员、产业组织研究室主任、中国社会科学院大学教授、博士生导师、中国可持续发展研究会理事;方澳,中国社会科学院大学经济学院。本文首发《经济…

4 计算机组成原理第三章 存储系统 高速缓冲存储器 虚拟存储器

文章目录1 局部性原理性能分析2 Cache工作原理(简易版)3 地址映射4 替换算法4.1 替换算法(十进制)举例4.2 Cache工作原理(加强版)4.2.1写策略-命中4.2.2 写策略-未命中4.3 替换算法(二进制&…

CICC城市大脑专委会获批成立,欢迎参加专委会共同探索和研究

CICC 城市大脑专委会中国指挥与控制学会(CICC)是经国家民政部正式注册的我国指挥与控制科学技术领域的国家一级学会,是全国性科技社会组织;是中国科学技术协会的正式团体会员,接受中国科学技术协会的直接领导&#xff…

讲座文稿 | 人工智能与因果推理

来源:本文为中国人民大学明德讲坛第23期暨服务器艺术人工智能哲学第11期讲座文稿。主持人:朱锐 嘉宾:邱德钧、秦曾昌、Vincent Luizzi、袁园 主办:中国人民大学哲学与认知科学跨学科交叉平台、服务器艺术 协办:神经现…

顺序栈的介绍及实现

1 栈 从数据结构角度来讲,栈也是线性表,其操作是线性表操作的子集,属操作受限的线性表。 但从数据类型的角度看,它们是和线性表大不相同的重要抽象数据类型。 ◆ 栈是只准在一端进行插入和删除操作的线性表,该端称为栈…

内排序算法一览

文章目录1 插入排序2 希尔(shell)排序3 冒泡排序4 快速排序5 选择排序6 堆排序7 归并排序8 内排序代码一览运行结果常用排序算法时间复杂度和空间复杂度一览表排序:将一组杂乱无章的数据按一定的规律顺次排列起来,可以看作是线性表的一种操作…

Nature:神经元在大脑中的起点并不一定是它们的终点

来源:生物通虽然人体有30亿个DNA碱基和超过30万亿细胞,格里森和他的同事们发现只有几百DNA突变可能出现在头几个细胞分裂后的受精胚胎或在大脑的早期发展。通过在死者的大脑中跟踪这些突变,他们第一次能够重建人类大脑的发育。胎儿大脑的发育…

扎克伯格Meta元宇宙被质疑:年均烧百亿美元,货要等十年

来源:新智元公司内部业务混乱、公司外部观感酷似曾经的雅虎,这些与扎克伯格的元宇宙发力结合在一起,让Meta的新老员工都怨声载道。不少Meta的员工,现在都在抱怨老板的元宇宙项目顾头不顾腚、在公司内部徒增业务困扰但并无法带来收…

链栈的介绍与实现

文章目录1 链栈定义2 链栈基本操作3 链栈代码实现1 链栈定义 链栈:采用链式存储的栈称为链栈 在一个链栈中,栈底就是链表的最后一个结点,而栈顶总是链表的第一个结点。因此,新入栈的元素即为链表新的第一个结点,只要…

栈与递归

文章目录1 递归的概念2 递归算法3 递归数据结构4 递归实现5 递归与循环差别1 递归的概念 递归是指在定义自身的同时又出现了对自身的调用。如果一个函数在其定义体内直接调用自己,则称直接递归函数;如果一个函数经过一系列的中间调用语句,通过…

马斯克与推特达成收购协议 专家警告称这一步迈得过大

来源:网易智能4月26日消息,当地时间周一,在特斯拉首席执行官埃隆马斯克(Elon Musk)敲定将以440亿美元的价格收购个人社交媒体平台推特后,特斯拉股价盘中一度下跌超2%,最终收于每股998.02美元&am…

循环队列的介绍与实现

文章目录1 循环队列定义2 循环队列基本操作3 循环队列代码实现4 补充1 循环队列定义 循环队列:即顺序存储的队列,是为了避免“假溢出”而利用%运算符将队列首尾相接连成一个环状的队列,称为循环队列。 引入循环队列克服顺序队列中存在的“假…

5年内开炸第一颗小行星,改变其轨道!中国计划建立小行星预警监测系统

来源:大数据文摘不知道多少科幻片中,小行星成为了人类灭绝的罪魁祸首。在超高的速度加持下,直径只有十几公里的小行星撞击地球,都有可能造成人类毁灭。为了提前预警这样的事件发生,人类做出了不少努力。美国航天局NASA…

算术逻辑单元设计

文章目录1 基本逻辑符号1.1 ALU1.2 逻辑符号1.3 复合逻辑2 加法器设计2.1 一位加法器2.2 进位产生原理2.2 多位二进制位加法器1 基本逻辑符号 1.1 ALU ALU功能: 算术运算:加、减、乘、除等 逻辑运算:与、或、非、异或等 辅助功能&#xff1a…

数字孪生城市框架与全球实践洞察(2022)

来源 : 世界经济论坛编辑 :蒲蒲全球数字孪生市场蓬勃发展。据预测,到2030年,数字孪生技术的应用将为城市规划、建设、运营节省成本达到2800亿美元。市场规模方面,2020年全球数字孪生市场规模为31亿美元,预计…

2 计算机组成原理第二章 数据的表示和运算 定点数运算 浮点数运算

文章目录1 进制转换2 定点数表示及其运算2.1 定点数表示2.1.1 真值→补码2.1.2 补码→真值2.1.3 [XT]补 →[-XT]补2.1.4 真值、原码、反码、补码转换关系图形总结2.2.4 移码2.2 定点数运算2.2.1 移位运算2.2.2 定点数加减运算2.2.3 溢出判断判溢出方法一判溢出方法二判溢出方法…

Gartner:AI和自动化将是新一代SASE的关键能力

来源:安全内参近年来,安全访问服务边缘(SASE)技术快速发展,得到了较广泛的行业应用。SASE架构通常包括了SD-WAN、FWaaS、安全Web网关、云访问安全代理(CASB)和零信任网络访问(ZTNA&a…

MIPS指令与MIPS汇编语言

文章目录1 MIPS简介2 MIPS指令系统的特点3 MIPS寄存器4 MIPS指令格式4.1 R-Type型指令4.2 l-Type型指令4.3 J-Type型指令4.4 三类指令小结5 MIPS例题6 MIPS过程调用6.1 过程调用和栈6.2 MIPS中栈的实现6.3 栈帧的概念6.4 MIPS中的过程调用(假定P调用Q)6.…

DeepMind爆发史:决定AI高峰的“游戏玩家”|深度学习崛起十年

来源:OneFlow社区翻译:刘晓祯、沈佳丽、胡燕君、许晨阳、周亚坤很少有人会否认,过去十年,AI领域最耀眼的明星组织当属DeepMind,没有之一。那个震动世界的高光时刻发生在2016年3月的一天,AI选手AlphaGo击败了…