大摩眼中的DeepSeek:以存代算、以少胜多!

DeepSeek正在改写AI的扩展法则:下一代AI的决胜点不再是单纯堆砌更大的GPU集群,而是通过更聪明的混合架构,用性价比更高的DRAM置换 稀缺的HBM资源。 据追风交易台消息,摩根士丹利1月21日发布的最新研报显示,DeepSeek正在通过一种名为"Engram"的创新模块,改变大语言模型的构建方式。 其核心突破在于将存储与计算分离,通过引入"条件记忆"(Conditional Memory)机制,大幅减少了对昂贵且紧缺的高带宽内存(HBM)的需 求,转而利用成本更低的普通系统内存(DRAM)来处理复杂的推理任务。 大摩分析师Shawn Kim及其团队认为,DeepSeek展示了如何"少花钱多办事"(Doing More With Less)的哲学。这种将存储与计算分离的技术路 径,不仅缓解了中国面临的AI算力约束,更向市场证明了高效的混合架构才是AI的下一个前沿。 这一被大摩重点关注的架构,源自DeepSeek创始人梁文锋团队与北大合作者在1月13日发布的重磅论文《Conditional Memory via Scalable Lookup》。在这篇论文中,团队首次提出了"Engram"(印迹)模块。 ...