Qwen新模型直逼Claude4!可拓展百万上下文窗口,33GB本地即可运行
量子位·2025-08-01 00:46
"甜品级"的size,但完全"大餐"级的性能。 啥概念? 明敏 发自 凹非寺 量子位 | 公众号 QbitAI 开源编程模型的天花板,要被Qwen3-Coder掀翻了。 今天凌晨, Qwen3-Coder-Flash 也重磅开源! 相当于GPT-4.1级别的能力,还能让你本地使用! 多编程任务超越顶级开源模型,仅略逊于闭源的Claude Sonnet-4、GPT-4.1等。 原生上下文窗口支持256k token,可延长拓展至1 million token。 33GB内存(即中端笔记本)可运行。 有人实测,在苹果M4 Max上通过mlx-lm运行Qwen3-Coder-Flash,每秒可生成4467个token,相当快。 还有人已经火速推出了量化版本,显存不够的童鞋可以来下载使用。 | Open Models | | | | | | Proprietary Models | | --- | --- | --- | --- | --- | --- | --- | | Benchmarks Qwen3-Coder Owen3-Coder | | | Kimi-K2 | DeepSeek-V3 | Claude | ...