Workflow
AdNanny
icon
Search documents
一个模型统一所有离线任务!微软用671B大模型重构广告推荐「推理大脑」
Sou Hu Cai Jing· 2026-02-18 05:37
AdNanny团队 投稿 量子位 | 公众号 QbitAI 微软用一个671B的"推理中枢",把广告系统的脏活累活都管了,性能还全面碾压一众前辈。 在工业级广告推荐系统中,普遍正面临一个吊诡的现状:在通用大语言模型(LLM)的推理能力已经登峰造极的同时,为了追求毫秒级的 响应,通常无法直接把LLM用到线上而是在离线端堆积了成百上千个"小模型"——有的管相关性标注,有的管用户画像,等等。 范式转移:从"模型森林"到"智能中枢化" 在现代广告推荐技术栈中,依赖大量离线任务支撑,如:query-ad相关性标注、用户画像生成、关键词扩写、创意优化……这些离线任务 通常用来为在线模型提供特征、数据和标签,工程师们为每个子任务都微调专属的BERT或小型LLM。这种"一任务一模型"的体系存在很 多痛点,如: 知识孤岛:尽管任务间共享广告领域知识共享底层语义,但在碎片化模型下,知识被重复学习,重复造轮子,效率极低。 性能瓶颈:受限于成本,各任务专属模型通常规模较小,面对长尾流量和复杂语义时,容易出现"理解偏差"。而且决策往往是黑盒的,输 出不提供解释。当模型判断错误时,算法工程师无法溯源,人工审核也无从下手。 维护成本高企: ...
一个模型统一所有离线任务!微软用671B大模型重构广告推荐「推理大脑」
量子位· 2026-02-17 03:58
范式转移:从"模型森林"到"智能中枢化" 在现代广告推荐技术栈中,依赖大量离线任务支撑,如:query-ad相关性标注、用户画像生成、关键词扩写、创意优化……这些离线任务 通常用来为在线模型提供特征、数据和标签,工程师们为每个子任务都微调专属的BERT或小型LLM。这种"一任务一模型"的体系存在很多 痛点,如: AdNanny团队 投稿 量子位 | 公众号 QbitAI 微软用一个671B的"推理中枢",把广告系统的脏活累活都管了,性能还全面碾压一众前辈。 在工业级广告推荐系统中,普遍正面临一个吊诡的现状:在通用大语言模型 (LLM) 的推理能力已经登峰造极的同时,为了追求毫秒级的 响应,通常无法直接把LLM用到线上而是在离线端堆积了成百上千个"小模型"——有的管相关性标注,有的管用户画像,等等。 这种 "模型森林" 范式正逐渐成为进化的阻碍。模型间知识割裂、运维成本高昂、决策过程黑盒化。 近日,微软Bing Ads与DKI团队发表论文《AdNanny: One Reasoning LLM for All Offline Ads Recommendation Tasks》,宣布基于 DeepSeek-R1 6 ...