一个模型统一所有离线任务!微软用671B大模型重构广告推荐「推理大脑」
AdNanny团队 投稿 量子位 | 公众号 QbitAI 微软用一个671B的"推理中枢",把广告系统的脏活累活都管了,性能还全面碾压一众前辈。 在工业级广告推荐系统中,普遍正面临一个吊诡的现状:在通用大语言模型(LLM)的推理能力已经登峰造极的同时,为了追求毫秒级的 响应,通常无法直接把LLM用到线上而是在离线端堆积了成百上千个"小模型"——有的管相关性标注,有的管用户画像,等等。 范式转移:从"模型森林"到"智能中枢化" 在现代广告推荐技术栈中,依赖大量离线任务支撑,如:query-ad相关性标注、用户画像生成、关键词扩写、创意优化……这些离线任务 通常用来为在线模型提供特征、数据和标签,工程师们为每个子任务都微调专属的BERT或小型LLM。这种"一任务一模型"的体系存在很 多痛点,如: 知识孤岛:尽管任务间共享广告领域知识共享底层语义,但在碎片化模型下,知识被重复学习,重复造轮子,效率极低。 性能瓶颈:受限于成本,各任务专属模型通常规模较小,面对长尾流量和复杂语义时,容易出现"理解偏差"。而且决策往往是黑盒的,输 出不提供解释。当模型判断错误时,算法工程师无法溯源,人工审核也无从下手。 维护成本高企: ...