美团发布并开源 LongCat-Flash-Chat,动态计算开启高效 AI 时代
▲美团发布并开源 LongCat-Flash-Chat(资料图) 据悉,LongCat-Flash 采用创新性混合专家模型(Mixture-of-Experts, MoE)架构,总参数 560B,激活参数 18.6B-31.3B(平均 27B),实现了计算效率与性能的双重优化。根据多项基准测试综合评估,作为一款非 思考型基础模型,LongCat-Flash-Chat 在仅激活少量参数的前提下,性能比肩当下领先的主流模型,尤 其在智能体任务中具备突出优势。此外,因为面向推理效率的设计和创新,LongCat-Flash-Chat 具有明 显更快的推理速度,更适合于耗时较长的复杂智能体应用。 9月1日,美团宣布 LongCat-Flash-Chat 正式发布,在Github、Hugging Face 平台开源,并同步上线官网 https://longcat.ai/ 。 具体来看,LongCat-Flash 模型在架构层面引入"零计算专家(Zero-Computation Experts)"机制,总参数量 560B,每个token 依据上下文需求仅激活 18.6B-31.3B 参数,实现算力按需分配和高效利用。为控制 ...