备受全球AI圈关注的Qwen3系列模型正式登场啦!这个模型可是从昨晚就开始预热,大家都对它期待满满。

Qwen3模型依旧采用宽松的Apache2.0协议开源,这意味着全球的开发者、研究机构和企业都能免费在HuggingFace、魔搭社区等平台下载模型,还能用于商业用途。要是不想下载,也可以通过阿里云百炼调用Qwen3的API服务。下面给大家说说具体的下载地址:

·HuggingFace地址:https://huggingface.co/collections/Qwen/qwen367dd247413f0e2e4f653967f

·Modelscope地址:https://modelscope.cn/collections/Qwen39743180bdc6b48

·GitHub地址:https://github.com/QwenLM/Qwen3

·博客地址:https://qwenlm.github.io/blog/qwen3/

·试用地址:https://chat.qwen.ai/

具体来讲,Qwen3系列模型有两款MoE模型和六款密集模型,而且每一款还有更多细分版本,像基础版和量化版。

通义千问Qwen3模型家族

阿里Qwen3系列模型惊艳亮相

这些模型全部支持Apache2.0协议开源,还能“快思慢想”按需切换,支持119种语言,有Agent能力及MCP协议。

·MoE模型:有Qwen3 – 235B – A22B和Qwen3 – 30B – A3B。这里的235B和30B分别是总参数量,22B和3B分别是激活参数量。

·密集模型:包括Qwen3 – 32B、Qwen3 – 14B、Qwen3 – 8B、Qwen3 – 4B、Qwen3 – 1.7B和Qwen3 – 0.6B。

下面这个表格详细展示了这些模型的参数:

模型名称

层数

头数(Q/KV

是否绑定嵌入

上下文长度

Qwen3 – 0.6B

28 16/8 32K
Qwen3 – 1.7B 28 16/8 32K
Qwen3 – 4B 36 32/8 32K
Qwen3 – 8B 36 32/8 128K
Qwen3 – 14B 40 40/8 128K
Qwen3 – 32B 64 64/8 128K

 

模型名称

层数

头数(Q/KV

专家数量(总数/激活数)

上下文长度

Qwen3 – 30B – A3B

48 32/4 128/8 128K
Qwen3 – 235B – A22B 94 64/4 128/8 128K

阿里Qwen3系列模型惊艳亮相

现在,Hugging Face已经上线了22个不同的Qwen3系列模型。而且,Qwen3系列中较大的三款模型也已经在Qwen Chat网页版和手机App上线了。

在性能方面,旗舰模型Qwen3 – 235B – A22B在代码、数学、通用能力等基准测试中,和DeepSeek – R1、o1、o3 – mini、Grok – 3和Gemini – 2.5 – Pro等顶级模型表现得差不多。

测试项目

Qwen3 – 235B – A22B

Qwen3 – 32B

OpenAlol 2024 – 12 – 17

Deepseek – R1

Grok 3 Beta

Gemini2.5 – Pro

OpenAl – o3 – mini

ArenaHard

95.6 93.8 92.1 93.2 96.4 89.0
AIME24 85.7 81.4 74.3 79.8 83.9 92.0 79.6
AIME25 81.5 72.9 79.2 70.0 77.3 86.7 74.8
Live CodeBench 70.7 65.7 63.9 64.3 70.6 70.4 66.3
CodeForces 2056 1977 1891 2029 2001 2036
Aider a2 61.8 50.2 61.7 56.9 53.3 72.9 53.8
LiveBench 02411:25 77.1 74.9 75.7 71.6 82.4 70.0
BFCL 70.8 70.3 67.8 56.9 62.9 64.6
MultilF 71.9 73.0 48.8 67.7 77.8 48.4

此外,小型MoE模型Qwen3 – 30B – A3B的激活参数数量只有QwQ – 32B的10%,但表现却更好。就连像Qwen3 – 4B这样的小模型,性能也能和Qwen2.5 – 72B – Instruct相媲美。

测试项目

Qwen3 – 30B – A3B

QwQ – 32B

Qwen3 – 4B

Qwen2.5 – 72B – Instruct

Gemmo3 – 27B – IT

DeepSeek – V3

GPT – 4o 202411:20

ArenaHard

91.0 89.5 76.6 81.2 86.8 85.5 85.3
AIME24 80.4 79.5 73.8 18.9 32.6 39.2 11.1
AIME25 70.9 69.5 65.6 15.0 24.0 28.8 7.6
LiveCodeBench 62.6 62.7 54.2 30.7 26.9 33.1 32.7
CodeForces 1974 1982 1671 859 1063 1134 864
GPQA 65.8 65.6 55.9 49.0 42.4 59.1 46.0
LiveBench 2024 – 11 – 25 74.3 72.0 63.6 51.4 49.2 60.5 52.2
BFCL 69.1 66.4 65.9 63.4 59.1 57.6 72.5
MultilF 72.2 68.3 66.3 65.3 69.8 55.6 65.6

Qwen3不仅性能大幅提升,部署成本还大幅下降,只需要4张H20就能部署满血版,显存占用只有性能相近模型的三分之一。

开发团队在博客里给出了一些推荐设置:“对于部署,推荐使用SGLang和vLLM等框架;要是在本地使用,像Ollama、LMStudio、MLX、llama.cpp和KTransformers这些工具也很不错。用这些选项,用户能轻松把Qwen3集成到自己的工作流程里,不管是做研究、开发还是用于生产环境都没问题。”

该团队表示:“Qwen3的发布和开源会极大地推动大型基础模型的研究与开发。我们的目标是让全球的研究人员、开发者和组织都能用上这些前沿模型,帮助他们构建创新解决方案。”

Qwen团队技术负责人林俊旸分享了Qwen3模型开发的细节,他说团队花了不少时间解决一些看似普通但很重要的问题,比如怎么通过稳定的训练来扩展强化学习、怎么平衡不同领域的数据、怎么在不牺牲性能的前提下增强对更多语言的支持等。他希望大家能喜欢Qwen3模型,说不定还能发现一些有趣的东西。他还说团队接下来要训练Agent来扩展长程推理,同时会更关注现实世界的任务。

林俊旸分享

当然,未来开发团队也会放出Qwen3模型的技术报告或训练配方。

网友反馈与上手实测

和前一代Qwen系列模型一样,Qwen3的发布吸引了全球AI和开源社区的关注,网上全是好评。

网友好评

有网友说:“我刚刚尝试了Qwen3。当你需要时,它反应很快。它能从容应对棘手的问题。它不会随便给出答案,而是会思考并给出正确答案。对于编码,它运行良好。对于数学,它也能轻松应对。语言方面,它听起来很真实,不像其他型号那样奇怪。更让我惊喜的是,它甚至支持多达119种语言。已经很久没有出现过如此优秀的开源模型了。”

实测场景

机器之心也做了一些简单的测试。首先是一个简单的推理测试题,Qwen3 – 235B – A22B轻松就答对了。

阿里Qwen3系列模型惊艳亮相

接着,他们尝试了一个更复杂的编程任务:编写一个像素风格的贪吃蛇游戏,而且游戏里还有一个平头哥在追赶蛇,一旦被咬中,蛇的长度就会减少一半。当蛇撞墙、咬到自己或者长度低于2时,游戏就结束。Qwen3 – 235B – A22B大概用了3分钟就完成了这个任务。简单试玩了一下,发现基本能玩,但也有一些小问题,比如平头哥的速度太快了。不过考虑到这是在简单提示词下得到的结果,已经很不错了。相信通过更精细的提示工程和迭代优化,能得到更好的结果。

阿里Qwen3系列模型惊艳亮相

他们还通过Ollama简单尝试了Qwen3系列中最小的模型Qwen 0.6B。