传统计算架构中计算与存储在不同电路单元中完成,造成大量数据搬运功耗增加和额外延迟,被认为是冯·诺依曼计算架构的核心瓶颈。
人类的大脑却并非如此,而是直接在记忆体里计算。被认为具有「存算一体」潜力的忆阻器,因而成为类脑计算领域的热门器件,被寄予提高算力,突破技术瓶颈的厚望。
撰文 | 四月
2 月 27 日机器之心获悉,据清华大学新闻网消息,该校微电子所、未来芯片技术高精尖创新中心钱鹤、吴华强教授团队与合作者成功研发出一款基于多阵列忆阻器存算一体系统,在处理卷积神经网络(CNN)时能效比前沿的图形处理器芯片(GPU)高两个数量级。
该项研究于 1 月 29 日在顶尖学术期刊《自然》杂志(Nature)在线发表,题为《Fully hardware-implemented memristor convolutional neural network(完全由硬件实现的忆阻器卷积神经网络)》,详述了基于忆阻器阵列芯片实现卷积网络的完整硬件过程。
通过这项工作中开发的阵列芯片集成了 8 个包含 2048 个忆阻器的列阵,并构建了一个五层的卷积神经网络进行图像识别,精度高达 96% 以上。
基于多个忆阻器阵列实现的存算一体化开发板
该阵列芯片以忆阻器替代经典计算机底层的晶体管,以更小的功耗和更低的硬件成本大幅提升计算设备的算力,在一定程度上突破了传统计算框架「冯诺依曼瓶颈」的限制:大幅提升算力的同时,实现了更小的功耗和更低的硬件成本。
清华 LEMON 团队成员:员高滨、姚鹏、吴华强、张清天、唐建石(从左到右)图片来源:清华新闻网
目前,何谦教授和吴华强教授领导了清华大学的LEMON实验室(The Laboratory of Emerging Memory and Novel Computing,新兴存储与新型计算实验室),在过去的几年中一直致力于基于忆阻器的神经形态计算。该小组在材料和设备工程,工艺开发,电路和芯片设计以及算法和系统演示方面取得了显著成就。
01
来自忆阻器的启发
所谓忆阻器,全称记忆电阻器(Memristor),是继电阻、电容、电感之后的第四种电路基本元件,显示磁通与电荷之间的关系,最早由加州大学伯克利分校教授蔡少棠在 1971 年预言存在,惠普公司在 2008 年研造成功。
简言之,这种组件的的电阻会随着通过的电流质而扭转,而且就算电流进行了,它的电阻依然会停留在之前的值,直到承遭到反向的电流它才会被推回去,就是说能「记住」之前的电流质。
受人脑启发,忆阻器设备被组织成交叉点阵列,以实现大规模并行的内存计算并提高电源效率。
这种巧妙的机制和我们大脑中的生物突触和神经元有相仿之处,同时忆阻器还具有尺寸小、操作功耗低、可大规模集成(三维集成)等优点,可以制成高密度交叉点阵列,以通过物理定律实现内存内部大规模并行乘积计算(CIM)。
02
首个基于忆阻器的 CNN 存算一体芯片
基于多个忆阻器阵列的存算一体化计算架构
在该项研究中,清华团队提出用高能效比、高性能的均匀忆阻器交叉阵列处理神经卷积网络(CNN),网络共集成了 8 个 基于忆阻器的处理单元,每个 PE 单元中包含 2048 个单元的忆阻器阵列,以提升并行计算效率。采用基于 ARM 核的动态随机存取存储器。
右图展示了该阵列极具可重复性的多级电导率状态,成功证明了存算一体架构全硬件实现的可行性。
每个忆阻器与晶体管采用漏级端相连,即 1T1R 结构。核心 PCB 子系统皮遏止八块忆阻器阵列芯片,每个忆阻器阵列具备 128 × 16 个 1T1R 单元。在水平方向上共有 128 条并行字线和 128 条源线,在垂直方向上共有 16 条位线。
此外,研究者还提出了一种高效的混合训练方法,以适应设备缺陷,改进整个系统的性能。研究者构建了基于忆阻器的五层 mCNN 来执行 MNIST 图像识别任务,识别准确率超过 96%。
系统针对 ResNET-56 等大型网络的可扩展性
除了使用不同卷积核对共享输入执行并行卷积外,忆阻器阵列还复制了多个相同卷积核,以并行处理不同的输入。相较于当前最优的图形处理器(GPU),基于忆阻器的 CNN 神经形态系统的能效要高出两个数量级以上,并且该系统可扩展至大型网络,如残差神经网络(ResNet)。
该结果或可促进针对深度神经网络和边缘计算提供基于忆阻器的非冯诺伊曼(non-von Neumann)硬件解决方案,大幅提升计算设备的算力,成功实现以更小的功耗和更低的硬件成本完成复杂的计算。
03
攻关两大难点
据清华大学新闻网介绍,当前国际上的忆阻器研究还停留在简单网络结构的验证,或者基于少量器件数据进行的仿真。基于忆阻器阵列的完整硬件实现仍然有很多挑战。
比如,器件方面,需要制备高一致、可靠的阵列;系统方面,忆阻器因工作原理而存在固有缺陷(如器件间波动,器件电导卡滞,电导状态漂移等),会导致计算准确率降低;架构方面,忆阻器阵列实现卷积功能需要以串行滑动的方式连续采样、计算多个输入块,无法匹配全连接结构的计算效率。
据《北京日报》报道,攻关期间,材料和工艺集成是最大挑战,「做这种新的芯片需要观察大量统计规律,但当时没有大型代工厂支持,我们只能在实验室摸索,有段时间有点崩溃,每次做完实验,结果都很分散。」吴华强在接受采访时说,后来,他们与中科院微电子所、北京大学等单位共同合作,终于解决了难题。
「我们改变材料上覆盖层的组分,通过调试热导率和电导率,调整材料内部导电系数的强弱,来实现优化。」吴华强接受《北京日报》的采访时说。
目前团队已经与一家商业硅代工厂合作,开发了一种混合集成途径,以制造具有优化材料堆栈的大型阵列忆阻器,作为灵活的硬件测试平台。
另一方面,为解决器件固有缺陷造成的系统识别准确率下降问题,团队提出了一种新型的混合训练算法,仅需用较少的图像样本训练神经网络,并微调了最后一层网络的部分权重。
基于忆阻器的五层 mCNN 网络
据论文介绍,团队成功实现了一个完整的五层 mCNN,用于执行 MNIST 手写数字图像识别任务。优化后的材料堆栈(material stack)能够在 2048 个单晶体管单忆阻器(one-transistor–one-memristor,1T1R)阵列中实现可靠且均匀的模拟开关行为。
使用该研究提出的混合训练机制后,实验在整个测试集上的识别准确率达到了 96.19%。
在 mCNN 上进行混合训练
此外,将卷积内核复制到三个并行的忆阻器卷积器可将 mCNN 延迟大约降低了 1/3。高度集成的神经形态系统通过缩小基于忆阻器之间的卷积计算和全连接 VMM 之间的吞吐量差距,为大幅度提高 CNN 效率提供了一个可行的解决方案。
04
线下实测精度约为 95%
本月,在集成电路领域最重要的会议 ISSCC 上,研究小组针对研究成果进行了报告,芯片实现了多层感知器神经网络,用于对 MNIST 数据集中的手写数字图片进行分类。
用于分类 MNIST 手写数字图片的芯片和演示系统
该芯片在芯片上集成了将近 16 万个忆阻器以及所有外围电路,并实现了每瓦每秒 78.4 兆兆位(78.4TOPS/W)运算的超高能效。运行功率低至 40 毫瓦,对 MNIST 图像进行分类的识别精度约 95%。
目前,团队正在致力于开发更复杂的存算一体化芯片,并扩大忆阻器阵列的尺寸,以进一步利用忆阻器提高系统性能。吴华强在接受《北京日报》采访时表示,「我们还计划构建包括忆阻器、存算一体芯片到存算一体编译器等在内的全新计算机系统。」
展望未来,用忆阻器构建「大脑」计算机还有很长的路要走,因为在硬件和软件方面仍然存在许多挑战。而有了体积小、功耗低、算力强的存算一体芯片,手机等移动终端就能运行人工智能应用,让人工智能更懂人类不再遥远。
钱鹤、吴华强团队认为,这种跨学科的研究与协作对于突破传统思维并建立与现有系统完全不同的计算系统至关重要,这将有望通过这种强大的忆阻器彻底改变 AI 硬件。
参考链接:
1.https://news.tsinghua.edu.cn/publish/thunewsen/9671/2020/20200225110757772216750/20200225110757772216750_.html
2.http://bj.people.com.cn/BIG5/n2/2020/0227/c349239-33831801.html
3.https://scihub.bban.top/10.1038/s41586-020-1942-4