来源:专知
人和高级动物在整个生命中不断获取、微调和转让知识和技能。这种能力,称为lifelong learning,是由一系列神经认知机制协调的过程,这些机制共同促进了sensorimotor技能的发展以及对长期记忆的巩固和检索。因此对于计算系统和自动化智体,lifelong learning能力,对能否在现实世界进行交互并处理连续信息,至关重要。
但是,长期来看,lifelong/continual learning仍然是机器学习和神经网络模型的挑战,因为从非平稳数据分布中不断递增地获取可用信息通常会导致catastrophic forgetting或者interference问题,即用新信息训练模型的时候会干扰先前学习的知识。这种现象通常会导致性能突然下降,或者最坏的情况下导致旧知识被新知识完全overwrite。对于拿固定训练数据来学习的深度神经网络模型,其随时间递增的信息无法可用这一点,会成为一个主要缺陷。
在这篇综述中,总结了与人工学习系统的continual/lifelong learning相关挑战,并比较了现有那些在不同程度上减轻catastrophic forgetting的NN方法。尽管NN在特定领域学习方面已取得了重大进展,但要在自动化智体和机器人上开发强大的lifelong learning,还需要进行大量研究。为此作者讨论了由生物系统中的lifelong learning因素所激发的各种研究,如structural plasticity、memory replay、curriculum & transfer learning、intrinsic motivation和multisensory integration等。
https://www.zhuanzhi.ai/paper/6ffaa804920a2409e0cf56cadd2a5889
未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。
如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”