DeepSeek V4 Lite
Search documents
消息称 DeepSeek V4 模型打破惯例:华为等国内厂商可早期访问,不让英伟达 AMD 先用
Xin Lang Cai Jing· 2026-02-27 10:36
IT之家 2 月 27 日消息,据路透社 2 月 26 日报道,两位了解情况的消息人士表示,DeepSeek 在即将进行重大模型更新之前,未向美国芯片制造商展示其即 将推出的旗舰模型,这打破了行业标准做法。 相反,DeepSeek V4 向国内供应商 —— 包括华为技术有限公司 —— 提供了早期访问权限。 报道提到,AI 开发者通常会将主要模型的预发布版本分享给英伟达和 AMD 等芯片制造商,以确保其软件在广泛使用的硬件上高效运行。DeepSeek 之前曾 与英伟达的技术人员密切合作。 对于其即将推出的模型,DeepSeek 没有向英伟达和 AMD 提供访问权限,而是给予包括华为在内的中国厂商几周的时间来适配其芯片。 英伟达和 AMD 拒绝评论。DeepSeek 和华为没有回应评论请求。 消息源 @legit_api 于 2 月 26 日在 X 平台发布推文,报道称 DeepSeek 正在测试 V4 Lite 模型,代号为"Sealion-lite",上下文窗口为 100 万 tokens,并是原生 支持多模态推理。 IT之家注意到,本月早些时候,DeepSeek 更新之后开始灰度测试最高 1M(百万)Tok ...
DeepSeek又一论文上新!新模型V4更近了?
Di Yi Cai Jing· 2026-02-27 07:01
论文延续DeepSeek一贯的风格,在工程化层面将性能优化推向极致。 在业界对新一代旗舰模型DeepSeek V4的翘首期盼中,DeepSeek团队却悄然放出了一篇新的学术论文。 这篇论文由DeepSeek联合北大、清华共同撰写,将研究方向投向了决定大模型实际应用落地的关键一环——推理速度,为日益复杂的AI智能体,提供一套 高效的底层系统解决方案。 论文在引言部分提到,大模型正从单轮对话机器人和独立推理模型,快速演进为智能体系统 ——能够自主规划、调用工具,并通过多轮交互解决实际任 务。这种应用范式的转变,推动大模型推理工作负载发生重大变革:从传统的人类-大模型交互,转向人类-大模型-环境交互,交互轮次可达数十甚至数百 轮。 上下文会跨轮次累积,最终长度可能达到极值。此时模型不需要大量计算,反而需要频繁从硬盘读取历史上下文的 KV-Cache;现有系统中,只有负责预处 理的引擎会读取KV-Cache,它的网卡带宽被占满,而负责生成内容的解码引擎,网卡带宽基本闲置,导致整个系统速度被卡脖子。 因此,论文提出的DualPath,针对智能体工作负载、重新设计现代推理架构中 KV-Cache加载逻辑,解决大模型做智能 ...