美团“Building LLM ”进展首度曝光:发布并开源LongCat-Flash-Chat 输出成本低至5元/百万token
【环球网科技报道 记者 李文瑶】9月1日,美团宣布 LongCat-Flash-Chat 正式发布,在Github、Hugging Face 平台开源,并同步上线官网。 具体来看,LongCat-Flash 模型在架构层面引入"零计算专家(Zero-Computation Experts)"机制,总参数量 560B,每个token 依据上下文需求仅激活 18.6B- 31.3B 参数,实现算力按需分配和高效利用。为控制总算力消耗,训练过程采用 PID 控制器实时微调专家偏置,将单 token 平均激活量稳定在约 27B。 此外,LongCat-Flash 在层间铺设跨层通道,使MoE的通信和计算能很大程度上并行,极大提高了训练和推理效率。配合定制化的底层优化,LongCat-Flash 在 30 天内完成高效训练,并在 H800 上实现单用户 100+ tokens/s 的推理速度。LongCat-Flash 还对常用大模型组件和训练方式进行了改进,使用了超参迁移 和模型层叠加的方式进行训练,并结合了多项策略保证训练稳定性,使得训练全程高效且顺利。 针对智能体(Agentic)能力,LongCat-Flash ...