Workflow
扩散语言模型(Diffusion Language Models)
icon
Search documents
姚班传奇陈立杰入职OpenAI,16岁保送清华,30岁拿下UC伯克利助理教授
3 6 Ke· 2026-01-15 01:43
最新消息:姚班大神陈立杰,加盟OpenAI了。 据"Top华人社消息",OpenAI内部确认:清华姚班天才、UC伯克利EECS助理教授陈立杰已加盟OpenAI,负责数学推理! 与此同时,陈立杰近期参与的最新研究方向也十分"当下",聚焦于扩散语言模型(Diffusion Language Models),紧跟当前生成模型的重要演进路线。 值得一提的是,OpenAI 在去年 9 月发表的出圈论文《Why Language Models Hallucinate》中,也引用了陈立杰参与的另一篇研究《Why and How LLMs Hallucinate: Connecting the Dots with Subsequence Associations》。 截至目前,陈立杰主页未有更新。 陈立杰是谁? 陈立杰出生于1995年,16岁时获得全国信息学奥赛金牌(NOI),被保送进入清华大学,是清华大学 "姚班" 的知名校友,长期从事理论计算机科学研 究。 2025年,陈立杰正式入职加州大学伯克利分校(UC Berkeley)电气工程与计算机科学系(EECS),担任助理教授,并成为伯克利理论计算机科学团队 (Berkel ...
告别「盲目自信」,CCD:扩散语言模型推理新SOTA
机器之心· 2025-12-13 01:13
对此, 华为小艺香港团队、香港城市大学及香港大学 的研究人员们共同提出了一种全新的 上下文一致性解码算法(Coherent Contextual Decoding, CCD) ,充分 利用扩散过程中的上下文增广,从理论上纠正了传统 DLM 推理策略的 "短视性",并进一步采用自适应解码方案在多种开源 DLMs 上同时实现了 3.48 倍的加速和 3.9% 的性能提升。该方案不仅适配 Any-oder 生成,且在半自回归 Block-wise 解码设定下也获得了提升,扩散语言模型的高效推理时代,或许已经到来。 研究背景 今年以来,以 Dream 和 LLaDA 为主的开源扩散语言模型大放异彩,实现了和同尺寸自回归 LLM 相当的通用能力,且展现出了 DLMs 在全局规划和双向上下文理 解任务上的优势 。 扩散语言模型(Diffusion Language Models)以其独特的 "全局规划" 与并行解码能力广为人知,成为 LLM 领域的全新范式之一。然而在 Any-order 解码模式下,其 通常面临推理速度较慢且生成逻辑不连贯等问题。 论文标题: Beyond Confidence: Adaptive an ...