机器的记忆就像人类一样难以保存。为了帮助理解为什么人工智能体在自己的认知过程中会出现漏洞,俄亥俄州立大学的电气工程师分析了一种称为“持续学习”的过程对其整体表现的影响程度。
持续学习是指计算机被训练为连续学习一系列任务,利用从旧任务中积累的知识来更好地学习新任务。
然而,要达到这样的高度,科学家们仍然需要克服的一个主要障碍是学习如何规避相当于记忆丧失的机器学习,这一过程在人工智能代理中被称为“灾难性遗忘”。俄亥俄州知名人士NessShroff表示,当人工神经网络接受一项又一项新任务的训练时,它们往往会丢失从之前的任务中获得的信息,随着社会越来越依赖人工智能系统,这个问题可能会成为问题。俄亥俄州立大学计算机科学与工程学者、教授。
“当自动驾驶应用程序或其他机器人系统学习新事物时,重要的是他们不要忘记为了我们和他们的安全而已经学到的教训,”史洛夫说。“我们的研究深入研究了这些人工神经网络中持续学习的复杂性,我们发现一些见解开始弥合机器学习方式和人类学习方式之间的差距。”
研究人员发现,就像人们可能很难回忆起类似场景的对比事实,但可以轻松记住本质上不同的情况一样,人工神经网络在连续面对不同的任务时可以更好地回忆信息,而不是那些具有相似特征的任务,Shroff说。
该团队包括俄亥俄州立大学博士后研究人员SenLin和PeizhongJu以及YingbinLiang和Shroff教授,他们将于本月晚些时候在夏威夷檀香山举行的第40届年度国际机器学习会议上展示他们的研究成果,这是机器学习领域的旗舰会议。
虽然教会自主系统展示这种动态的、终身学习的能力可能具有挑战性,但拥有这种能力将使科学家能够以更快的速度扩展机器学习算法,并轻松地使其适应不断变化的环境和意外情况。从本质上讲,这些系统的目标是有一天能够模仿人类的学习能力。
传统的机器学习算法是一次性对数据进行训练的,但该团队的研究结果表明,任务相似性、负相关和正相关,甚至算法教授任务的顺序等因素都与人工网络保留任务的时间长度有关。一定的知识。
例如,为了优化算法的记忆,史洛夫说,应该在持续学习过程的早期教授不同的任务。这种方法扩展了网络获取新信息的能力,并提高了其随后学习更多类似任务的能力。
史洛夫说,他们的工作尤其重要,因为了解机器和人脑之间的相似性可以为更深入地了解人工智能铺平道路。