生成式推荐框架
Search documents
抛弃“级联”架构!快手OneRec用大模型重构推荐系统,服务成本降至1/10
AI前线· 2025-11-28 02:54
传统推荐架构正成为技术与业务演进的瓶颈。从最早的规则引擎到线性模型,再到深度学习进入推荐、行为序列建模,每一次技术跃迁都伴随着可 用算力的数量级提升。以 FM 到基于行为序列的精排模型为例,单个推荐 item 的计算量大约提升了 5 个数量级,同时带来显著效果增益。然而, 近两年 LLM 突飞猛进,推荐领域却更多停留在精排等局部环节的微调上,整体创新进入瓶颈。如果我们仍将迭代重心局限于排序模块、围绕单点 模型做细节优化,要获得数量级的提升将愈发困难。 能否直接借用 LLM 的技术栈与算力方案,重构一套端到端的推荐系统? 直接采用 LLM 架构来做推荐的想法,看似美好,但深入思考并不简单,根本原因在于 LLM 与推荐的在线服务场景差异巨大。推荐是典型的低延 迟、高并发服务,需要实时响应海量请求;而在 Chatbot 等场景中,用户可以接受更长的等待时间,请求量也与推荐系统不在同一量级。 因此,当被询问"能不能用 LLM 来做推荐"时,团队往往会给出"想法很好但不现实"的反馈,常见理由有三点:其一,推荐模型本身已经很大。若将 用于表示物料 ID 的稀疏 Embedding 计算在内,推荐模型规模已达 T 级(万亿 ...