第一作者和博士后研究员Gido van de Ven和首席研究员安德烈亚斯Tolias贝勒,与哈Siegelmann在马萨诸塞大学阿默斯特,自然通讯中写到,他们已经开发出一种新方法来保护——“出奇的有效”可以从“灾难性的”忘记;神经网络学习新课程,网络忘记他们之前学过。 Siegelmann及其同事指出,深度神经网络是最近人工智能发展的主要驱动因素,但这种遗忘阻碍了进展。
例如,“如果我们的具有生成回放功能的网络首先学会区分猫和狗,然后学会区分熊和狐狸,它也会在没有经过专门训练的情况下区分猫和狐狸。“值得注意的是,系统学习的越多,在学习新任务时就会变得越好。”van de Ven说。 他和他的同事们写道:“我们提出了一种新的、大脑激发的重播方式,在这种方式中,内部或隐藏的再现被重播,而这些再现是由网络自身的、情境调制的反馈连接产生的。”我们的方法在挑战连续学习基准上取得了最先进的性能,而无需存储数据,它为大脑中的抽象水平重放提供了一个新的模型。”Van de Ven说:“我们的方法对重放可能促进大脑记忆巩固的方式做出了几个有趣的预测。我们已经在进行一项实验来验证其中一些预测。”