备受全球AI圈关注的Qwen3系列模型正式登场啦!这个模型可是从昨晚就开始预热,大家都对它期待满满。
Qwen3模型依旧采用宽松的Apache2.0协议开源,这意味着全球的开发者、研究机构和企业都能免费在HuggingFace、魔搭社区等平台下载模型,还能用于商业用途。要是不想下载,也可以通过阿里云百炼调用Qwen3的API服务。下面给大家说说具体的下载地址:
·HuggingFace地址:https://huggingface.co/collections/Qwen/qwen367dd247413f0e2e4f653967f
·Modelscope地址:https://modelscope.cn/collections/Qwen39743180bdc6b48
·GitHub地址:https://github.com/QwenLM/Qwen3
·博客地址:https://qwenlm.github.io/blog/qwen3/
·试用地址:https://chat.qwen.ai/
具体来讲,Qwen3系列模型有两款MoE模型和六款密集模型,而且每一款还有更多细分版本,像基础版和量化版。
通义千问Qwen3模型家族
这些模型全部支持Apache2.0协议开源,还能“快思慢想”按需切换,支持119种语言,有Agent能力及MCP协议。
·MoE模型:有Qwen3 – 235B – A22B和Qwen3 – 30B – A3B。这里的235B和30B分别是总参数量,22B和3B分别是激活参数量。
·密集模型:包括Qwen3 – 32B、Qwen3 – 14B、Qwen3 – 8B、Qwen3 – 4B、Qwen3 – 1.7B和Qwen3 – 0.6B。
下面这个表格详细展示了这些模型的参数:
模型名称 |
层数 |
头数(Q/KV) |
是否绑定嵌入 |
上下文长度 |
Qwen3 – 0.6B |
28 | 16/8 | 是 | 32K |
Qwen3 – 1.7B | 28 | 16/8 | 是 | 32K |
Qwen3 – 4B | 36 | 32/8 | 是 | 32K |
Qwen3 – 8B | 36 | 32/8 | 否 | 128K |
Qwen3 – 14B | 40 | 40/8 | 否 | 128K |
Qwen3 – 32B | 64 | 64/8 | 否 | 128K |
模型名称 |
层数 |
头数(Q/KV) |
专家数量(总数/激活数) |
上下文长度 |
Qwen3 – 30B – A3B |
48 | 32/4 | 128/8 | 128K |
Qwen3 – 235B – A22B | 94 | 64/4 | 128/8 | 128K |
现在,Hugging Face已经上线了22个不同的Qwen3系列模型。而且,Qwen3系列中较大的三款模型也已经在Qwen Chat网页版和手机App上线了。
在性能方面,旗舰模型Qwen3 – 235B – A22B在代码、数学、通用能力等基准测试中,和DeepSeek – R1、o1、o3 – mini、Grok – 3和Gemini – 2.5 – Pro等顶级模型表现得差不多。
测试项目 |
Qwen3 – 235B – A22B |
Qwen3 – 32B |
OpenAlol 2024 – 12 – 17 |
Deepseek – R1 |
Grok 3 Beta |
Gemini2.5 – Pro |
OpenAl – o3 – mini |
ArenaHard |
95.6 | 93.8 | 92.1 | 93.2 | 96.4 | 89.0 | |
AIME24 | 85.7 | 81.4 | 74.3 | 79.8 | 83.9 | 92.0 | 79.6 |
AIME25 | 81.5 | 72.9 | 79.2 | 70.0 | 77.3 | 86.7 | 74.8 |
Live CodeBench | 70.7 | 65.7 | 63.9 | 64.3 | 70.6 | 70.4 | 66.3 |
CodeForces | 2056 | 1977 | 1891 | 2029 | 2001 | 2036 | |
Aider a2 | 61.8 | 50.2 | 61.7 | 56.9 | 53.3 | 72.9 | 53.8 |
LiveBench 02411:25 | 77.1 | 74.9 | 75.7 | 71.6 | 82.4 | 70.0 | |
BFCL | 70.8 | 70.3 | 67.8 | 56.9 | 62.9 | 64.6 | |
MultilF | 71.9 | 73.0 | 48.8 | 67.7 | 77.8 | 48.4 |
此外,小型MoE模型Qwen3 – 30B – A3B的激活参数数量只有QwQ – 32B的10%,但表现却更好。就连像Qwen3 – 4B这样的小模型,性能也能和Qwen2.5 – 72B – Instruct相媲美。
测试项目 |
Qwen3 – 30B – A3B |
QwQ – 32B |
Qwen3 – 4B |
Qwen2.5 – 72B – Instruct |
Gemmo3 – 27B – IT |
DeepSeek – V3 |
GPT – 4o 202411:20 |
ArenaHard |
91.0 | 89.5 | 76.6 | 81.2 | 86.8 | 85.5 | 85.3 |
AIME24 | 80.4 | 79.5 | 73.8 | 18.9 | 32.6 | 39.2 | 11.1 |
AIME25 | 70.9 | 69.5 | 65.6 | 15.0 | 24.0 | 28.8 | 7.6 |
LiveCodeBench | 62.6 | 62.7 | 54.2 | 30.7 | 26.9 | 33.1 | 32.7 |
CodeForces | 1974 | 1982 | 1671 | 859 | 1063 | 1134 | 864 |
GPQA | 65.8 | 65.6 | 55.9 | 49.0 | 42.4 | 59.1 | 46.0 |
LiveBench 2024 – 11 – 25 | 74.3 | 72.0 | 63.6 | 51.4 | 49.2 | 60.5 | 52.2 |
BFCL | 69.1 | 66.4 | 65.9 | 63.4 | 59.1 | 57.6 | 72.5 |
MultilF | 72.2 | 68.3 | 66.3 | 65.3 | 69.8 | 55.6 | 65.6 |
Qwen3不仅性能大幅提升,部署成本还大幅下降,只需要4张H20就能部署满血版,显存占用只有性能相近模型的三分之一。
开发团队在博客里给出了一些推荐设置:“对于部署,推荐使用SGLang和vLLM等框架;要是在本地使用,像Ollama、LMStudio、MLX、llama.cpp和KTransformers这些工具也很不错。用这些选项,用户能轻松把Qwen3集成到自己的工作流程里,不管是做研究、开发还是用于生产环境都没问题。”
该团队表示:“Qwen3的发布和开源会极大地推动大型基础模型的研究与开发。我们的目标是让全球的研究人员、开发者和组织都能用上这些前沿模型,帮助他们构建创新解决方案。”
Qwen团队技术负责人林俊旸分享了Qwen3模型开发的细节,他说团队花了不少时间解决一些看似普通但很重要的问题,比如怎么通过稳定的训练来扩展强化学习、怎么平衡不同领域的数据、怎么在不牺牲性能的前提下增强对更多语言的支持等。他希望大家能喜欢Qwen3模型,说不定还能发现一些有趣的东西。他还说团队接下来要训练Agent来扩展长程推理,同时会更关注现实世界的任务。
当然,未来开发团队也会放出Qwen3模型的技术报告或训练配方。
网友反馈与上手实测
和前一代Qwen系列模型一样,Qwen3的发布吸引了全球AI和开源社区的关注,网上全是好评。
有网友说:“我刚刚尝试了Qwen3。当你需要时,它反应很快。它能从容应对棘手的问题。它不会随便给出答案,而是会思考并给出正确答案。对于编码,它运行良好。对于数学,它也能轻松应对。语言方面,它听起来很真实,不像其他型号那样奇怪。更让我惊喜的是,它甚至支持多达119种语言。已经很久没有出现过如此优秀的开源模型了。”
机器之心也做了一些简单的测试。首先是一个简单的推理测试题,Qwen3 – 235B – A22B轻松就答对了。
接着,他们尝试了一个更复杂的编程任务:编写一个像素风格的贪吃蛇游戏,而且游戏里还有一个平头哥在追赶蛇,一旦被咬中,蛇的长度就会减少一半。当蛇撞墙、咬到自己或者长度低于2时,游戏就结束。Qwen3 – 235B – A22B大概用了3分钟就完成了这个任务。简单试玩了一下,发现基本能玩,但也有一些小问题,比如平头哥的速度太快了。不过考虑到这是在简单提示词下得到的结果,已经很不错了。相信通过更精细的提示工程和迭代优化,能得到更好的结果。
他们还通过Ollama简单尝试了Qwen3系列中最小的模型Qwen 0.6B。