专用模型
Search documents
现有路径不通?OpenAI、亚马逊考虑改变大模型训练方式
硬AI· 2026-01-25 11:33
AI研究范式或迎来根本转变:专家主张放弃"先预训练后微调"的通用模式,转向在训练早期就为特定目标(如代码、客 服)引入精选数据。若此路径普及,AI开发将从打造"全能模型"转向建多个从零开始的"专用模型",行业生态与团队结构 将因此重塑。 硬·AI 作者 | 叶慧雯 编辑 | 硬 AI 市场已经出现了这种分化的迹象。OpenAI目前正通过路由器将ChatGPT的查询分流至不同模型处理,并 开发了如GPT-5-Codex等专用模型。这种策略反映出消费者对简单聊天机器人的需求,与公司追求超级智 能、科学研究(如火星殖民或疾病治疗)等高端目标之间存在巨大差异。若进一步深化这一路线, OpenAI可能需要彻底重组其研究团队以适应完全不同的模型训练需求。 01 重塑训练逻辑:摒弃通用冗余 目前的AI训练规范在某种程度上模仿了人类的学习过程,即在童年时期积累广泛的基础知识,随后学习特 定技能。然而,行业内部开始反思这一流程的效率。David Luan指出,对于一个旨在处理代码或客户服务 的模型而言,花费大量算力去学习完全不相关的领域(如诗歌或园艺)是一种资源浪费。 这种"广撒网"式的预训练虽然直观,但也导致了诸如"裂脑问题 ...
现有路径不通?OpenAI、亚马逊考虑改变大模型训练方式
Hua Er Jie Jian Wen· 2026-01-23 06:42
随着人工智能领域竞争进入深水区,行业顶尖研究人员正对现有的模型训练范式提出质疑。 来自OpenAI、Thinking Machines Lab以及亚马逊的研究人员正在探讨一种根本性的转变:放弃目前通用 的"先预训练、后后训练"的标准流程,转而采用针对特定任务更早引入精选数据的训练模式,以解决现 有模型的效率低下和"裂脑问题"等缺陷。 这一潜在的转变由亚马逊的David Luan等人大力倡导。其核心观点在于,目前的通用训练路径——即先 赋予模型广泛的世界知识(如诗歌或园艺),再针对特定任务(如代码编写或客户退款)进行微调—— 在逻辑上并不总是合理的。研究人员认为,如果模型的最终用途已经确定,那么在预训练阶段就应引入 与任务高度相关的精选数据,从而更直接地为最终目标服务。 这种方法论的调整若付诸实践,将深刻改变AI行业的开发格局。这不仅意味着开发团队可能不再需要 按照预训练和后后训练进行人为分割,更预示着市场将从"一个通用模型适应所有场景"走向"基于不同 数据集构建专用模型"的时代。这种转变将迫使开发者在训练初期就对数据进行更严格的筛选,从而决 定模型在特定领域的专长与短板。 市场已经出现了这种分化的迹象。Ope ...