Workflow
小模型,也是嵌入式的未来
3 6 Ke·2025-08-22 01:29

小型语言模型比大型模型更紧凑、更高效。因此,SLM需要较少的内存和计算能力,非常适合资源受限的边缘或者嵌入式设备。 这两天,英伟达一个最新研究结论让业界备受关注——小型语言模型(SLM)才是智能体的未来。紧接着,英伟达又抛出了自己的全新小型语言 模型:Nemotron-Nano-9B-V2,该模型在部分基准测试中达到了同类产品中的最高性能。 事实上,小型语言模型(SLM)的风,也刮到了MCU和MPU领域。 小模型,就是"压小"的大模型 小型语言模型(SLM)也许我们早有所接触。SLM 的参数范围从几百万到几十亿不等,而 LLM 则具有数千亿甚至数万亿参数。 SLM是由LLM压缩而来,压缩模型需要在缩小模型的同时,尽可能保留模型的准确性。常见方法如下: 知识蒸馏:利用从大型"教师"模型转移的知识来训练一个较小的"学生"模型; 剪枝:移除神经网络架构中冗余或不那么重要的参数; 量化:降低计算中使用的数值精度(例如,将浮点数转换为整数)。 许多小而强大的语言模型已经出现,证明大小并非一切。常见的10亿到40亿的SLM包括Llama3.2-1B(Meta开发的10亿参数变体)、Qwen2.5-1.5B (阿里巴巴的1 ...