突破LLM遗忘瓶颈,谷歌「嵌套学习」让AI像人脑一样持续进化
机器之心报道 LLM在持续学习方面有了新突破。 近日,谷歌推出了一种 全新的用于持续学习的机器学习范式 —— 嵌套学习, 模型不再采用静态的训练周期,而是以不同的更新速度在嵌套层中进行学习,即将 模型视为一系列嵌套问题的堆叠,使其能够不断学习新技能,同时又不会遗忘旧技能。 机器之心编辑部 而这或将标志着人工智能朝着「真正像大脑一样进化的方向」迈出了一大步。 这种方法一经发布,便引起网友的热议,不少网友表示, 「这很令人兴奋,是迈向真正自适应、自我改进智能的重要一步。」 下面来详细了解一下。 在谷歌看来,过去十年,得益于强大的神经网络结构和高效的训练算法,机器学习(ML)领域取得了令人惊叹的进展,可尽管大语言模型(LLMs)取得了巨大 成功,一些根本性问题仍然存在,尤其是 「持续学习(Continual Learning)」—— 即模型能否在不遗忘旧知识的前提下,不断学习新知识与技能。 在人类学习和自我改进方面,人脑是最完美的范例, 它依靠神经可塑性(neuroplasticity)不断调整结构,以适应新的经验、记忆与学习。缺乏这种能力的人,就 会像患有前向性遗忘症(anterograde amnesia)一样 ...