第一作者和博士后研究员Gido van de Ven和首席研究员安德烈亚斯Tolias贝勒,与哈Siegelmann在马萨诸塞大学阿默斯特,自然通讯中写到,他们已经开发出一种新方法来保护——“出奇的有效”可以从“灾难性的”忘记;神经网络学习新课程,网络忘记他们之前学过。 Siegelmann及其同事指出,深度神经网络是最近人工智能发展的主要驱动因素,但这种遗忘阻碍了进展。 他们写道,“一种解决方案是存储以前遇到的例子,并在学习新东西时重温它们。尽管这样的‘重放’或‘彩排’可以解决灾难性遗忘,”他们补充说,“但对所有以前学过的任务进行不断的再训练效率非常低,而且需要存储的数据量会很快变得无法管理。”与人工智能神经网络不同,人类能够在一生中不断积累信息,建立在早期经验的基础上。他们解释说,大脑中保护记忆不被遗忘的一个重要机制是再现那些记忆的神经元活动模式。 Siegelmann表示,该团队的主要见解是“认识到大脑中的回放并不能存储数据。相反,“大脑在一个更高、更抽象的层次上产生记忆的表征,而不需要产生详细的记忆。”受此启发,她和同事们创造了一个类似人工大脑的回放,其中没有存储任何数据。相反,就像大脑一样,这个网络产生了它以前所见的高水平的表征。 “抽象生成大脑回放”被证明是非常有效的,并且该团队表明,在学习新记忆的同时,回放一些生成的记忆就足以记住旧的记忆。他们指出,生成式重复不仅防止灾难性遗忘,而且为系统学习提供了一个新的、更流线型的路径,它允许系统从一种情况到另一种情况的泛化学习。 例如,“如果我们的具有生成回放功能的网络首先学会区分猫和狗,然后学会区分熊和狐狸,它也会在没有经过专门训练的情况下区分猫和狐狸。“值得注意的是,系统学习的越多,在学习新任务时就会变得越好。”van de Ven说。 他和他的同事们写道:“我们提出了一种新的、大脑激发的重播方式,在这种方式中,内部或隐藏的再现被重播,而这些再现是由网络自身的、情境调制的反馈连接产生的。”我们的方法在挑战连续学习基准上取得了最先进的性能,而无需存储数据,它为大脑中的抽象水平重放提供了一个新的模型。”Van de Ven说:“我们的方法对重放可能促进大脑记忆巩固的方式做出了几个有趣的预测。我们已经在进行一项实验来验证其中一些预测。”