Workflow
Mixture of Experts (MoE)
icon
Search documents
从语言到意识的“一步之遥”,AI究竟要走多远?
腾讯研究院· 2025-06-26 07:58
以下文章来源于追问nextquestion ,作者追问 追问nextquestion . 科研就是不断探索问题的边界 George Musser 作者 张旭晖 编译 人工智能的终极梦想,从来不局限于打造一个能击败国际象棋特级大师的博弈引擎,或是设计出花言巧 语蛊惑人心的聊天机器人。它的真正使命,是成为一面映照人类智慧的明镜,帮助我们更深刻地认识自 我。 科研工作者的目标,也不止于是狭义的人工智能,他们追求的是通用型人工智能 (A GI ) ——一种具有 类人的适应力与创造力的智能系统。 诚然,如今大语言模型 (LLM) 的问题解决能力已然让大多数研究者刮目相看,但它们依然有着明显的 短板,例如缺乏持续学习的能力——一旦完成基于书籍、网络文本等材料的训练后,它们的知识库就被 冻结了,再也无法"更新"。正如AI公司SingularityNET的本·格策尔 (Ben Goertzel) 形象地比喻:"你没法 让大语言模型去上大学,甚至连幼儿园都进不了。"它们通过不了有"机器人高考"之名的综合测验。 "掌握"了语言,离模拟思维还有多远? 在语言处理方面,目前的LLM确实展现出了专家所称的AGI"形式能力":即使你提供 ...
一个「always」站在大模型技术C位的传奇男子
量子位· 2025-05-10 02:39
西风 衡宇 发自 凹非寺 量子位 | 公众号 QbitAI 怎么老是你??? (How old are you) 这是最近网友不断对着 Transformer八子之一的Noam Shazeer (为方便阅读 ,我们称 他为沙哥) 发出的灵魂疑问。 尤其是最近Meta FAIR研究员朱泽园分享了他们《Physics of Language Models》项目的系列新进展后,有网友发现,其中提到的3-token 因果卷积相关内容,沙哥等又早在三年前就有相关研究。 是的," 又 "。 因为你只要梳理一遍他的工作履历,就不难发现,AI界大大小小的突破背后,总是能发现他的名字。 "不是搞个人崇拜,但为什么总是Noam Shazeer?" △ 网友称右下角沙哥图由GPT-4o生成 朱泽园也自己也站出来表示,沙哥成果超前: 我也觉得Shazeer可能是个时间旅行者。 我原本不相信他们的gated MLP (在写第3.3部分的时候,因为门控多层感知机让训练不稳定) ,但现在我信服了 (在添加了Canon 层之后,我们在第4.1部分对比了多层感知机和门控多层感知机) 。 正式认识一下,沙哥是谁? 他是 Transformer八 ...