神经元连接方式
Search documents
贾佳亚教授:模型不必一味求大!优化神经元连接方式同样是智能跃升的「关键密码」丨GAIR 2025
雷峰网· 2025-12-16 08:28
" 未来还会有比 Transformer 更优的架构,能把智能再提升上万 倍。 " 作者丨徐晓飞 编辑丨包永刚 12月12日, 第八届 GAIR 全球人工智能与机器人大会 于深圳正式拉开帷幕。 本次大会为期两天,由GAIR研究院与雷峰网联合主办,高文院士任指导委员会主席,杨强院士与朱晓蕊教 授任大会主席。 作为 AI 产学研投界标杆盛会,GAIR自2016年创办以来,始终坚守 "传承+创新" 内核,是 AI 学界思想 接力的阵地、技术交流的平台,更是中国 AI 四十年发展的精神家园。过去四年大模型驱动 AI 产业加速变 革,岁末年初 GAIR 如约而至,以高质量观点碰撞,为行业与大众呈现AI时代的前沿洞见。 本次峰会之上, 香港科技大学讲座教授、冯诺依曼研究院院长,IEEE Fellow贾佳亚教授 亲临现场,为与 会者们带来了一场精彩纷呈的开场报告。 贾佳亚教授在会上先是回顾了冯诺依曼研究院成立前后,其带领相关团队从事的一些AI研究以及取得的成 果。 其中今年的一些最新技术成果,此前均未在公开场合正式披露: 1、2023年,发布了LongLoRA技术,成为全球第一个32K长文本上下文理解大模型技术; 2、20 ...