阿里Qwen 2.5模型

Search documents
小红书开源1420亿参数大模型,部分性能与阿里Qwen3模型相当
Tai Mei Ti A P P· 2025-06-10 01:07
在 AI 领域向来低调的社交平台小红书,近期开源了其首个自研大模型。 6月9日消息,小红书hi lab(Humane Intelligence Lab,人文智能实验室)团队近期在Github、Hugging Face等平台发布首款开源文本大模型dots.llm1。 | 1906 T. LETTORINGICE COUPALISON OF TRUSTOLUMEI ENRING THE THE OLL OUT THE LOOD TIGHT A | | --- | | n, n, and k represent the number of groups (experts) and the dimensions of each sub-GEMM problem, | | espectively. | 目前来看,dots.llm1大部分性能与阿里Qwen 2.5模型,部分性能与阿里Qwen 3模型相当。 具体来说,dots.llm1混合专家模型(MoE)模型拥有1420亿参数,使用11.2万亿token的非合成高质量训 练数据,在推理过程中仅激活140亿参数,能保持高性能的同时大幅度降低训练和推理成本。 此次小红书团队 ...