NeurIPS 2025 | 上下文元学习实现不微调跨被试脑活动预测
机器之心·2025-11-19 04:07
本文作者来自香港大学、香港中文大学、卡内基梅隆大学、哈佛大学、哥伦比亚大学等多所顶尖高校。 其中论文第一作者是喻牧泉,来自香港中文大学,主要研究方向为计算神经科学与脑机接口。通讯作者 为罗逸飞(Andrew F. Luo),香港大学助理教授。 人类高级视觉皮层在个体间存在显著的功能差异,而构建 大脑编码模型 (brain encoding models) —— 即能够从视觉刺激(如图像)预测人脑神经响应的计算模型 —— 是理解人类视觉系统如何表征世 界的关键。传统视觉编码模型通常需要为每个新被试采集大量数据(数千张图像对应的脑活动),成本 高昂且难以推广。尽管现有方法可利用预训练视觉模型(如 CLIP )提取图像特征,并通过线性回归拟 合脑响应,这类模型仍严重依赖大量被试内数据,在少样本甚至零样本条件下难以快速适应新个体,限 制了其在临床、个性化神经科学等现实场景中的应用。 为解决这一挑战,BraInCoRL(Brain In-Context Representation Learning)提出一种 基于元学习 的上下文Transformer跨被试脑编码模型 ,仅凭少量示例图像及其对应的脑活动数据,即可 无需 ...