上下文学习

Search documents
一个任务50次调用,成本狂砍90%?Manus首次公开上下文工程秘诀,一堆反复重写换来的教训
AI前线· 2025-07-21 07:04
作者 | 季逸超 Peak Ji,蝴蝶效应联合创始人、首席科学家 译者 | 王强 策划 | Tina 在 Manus 项目伊始,我和我的团队面临一个关键决策:我们是应该使用开源基础模型训练一个端到 端的 Agent 模型,还是应该在前沿模型的上下文学习能力之上构建一个 Agent? 之前我还在 NLP 领域的第一个十年时,我们是没有这样的选择余裕的。在 BERT(是的,已经过去 七年了)那段遥远的日子里,模型必须先进行微调并评估,然后才能转移到新任务上。这个过程通常 需要每周迭代一次,尽管与今天的大型语言模型相比,当时的模型很小。对于快速进化的应用,尤其 是处于产品市场契合阶段(PMF)之前的应用,这样的 慢反馈循环 是不可接受的。这是我上一次创 业的苦涩教训,当时我从头开始训练模型,用于开放信息提取和语义搜索用例。然后 GPT-3 和 Flan- T5 出现了,我的内部模型一夜之间就落伍了。讽刺的是,这些模型标志着上下文学习时代的开始 ——而且开启了一条全新的前进道路。 那个来之不易的教训让我们下定决心: Manus 将押注于上下文工程 。这使我们能够在几小时内而不 是几周内发布改进,并且使我们的产品与底层 ...