一个模型统一所有离线任务!微软用671B大模型重构广告推荐「推理大脑」
MicrosoftMicrosoft(US:MSFT) 量子位·2026-02-17 03:58

范式转移:从"模型森林"到"智能中枢化" 在现代广告推荐技术栈中,依赖大量离线任务支撑,如:query-ad相关性标注、用户画像生成、关键词扩写、创意优化……这些离线任务 通常用来为在线模型提供特征、数据和标签,工程师们为每个子任务都微调专属的BERT或小型LLM。这种"一任务一模型"的体系存在很多 痛点,如: AdNanny团队 投稿 量子位 | 公众号 QbitAI 微软用一个671B的"推理中枢",把广告系统的脏活累活都管了,性能还全面碾压一众前辈。 在工业级广告推荐系统中,普遍正面临一个吊诡的现状:在通用大语言模型 (LLM) 的推理能力已经登峰造极的同时,为了追求毫秒级的 响应,通常无法直接把LLM用到线上而是在离线端堆积了成百上千个"小模型"——有的管相关性标注,有的管用户画像,等等。 这种 "模型森林" 范式正逐渐成为进化的阻碍。模型间知识割裂、运维成本高昂、决策过程黑盒化。 近日,微软Bing Ads与DKI团队发表论文《AdNanny: One Reasoning LLM for All Offline Ads Recommendation Tasks》,宣布基于 DeepSeek-R1 6 ...