界面新闻记者 |
界面新闻编辑 | 文姝琪
4月29日凌晨,阿里巴巴开源新一代通义千问模型Qwen3 ,参数量仅为DeepSeek-R1的1/3,成本大幅下降,性能全面超越R1、OpenAI-o1等全球顶尖模型,登顶全球最强开源模型。Qwen3是国内首个“混合推理模型 ” ,“快思考”与“慢思考”集成进同一个模型,对简单需求可低算力“秒回”答案,对复杂问题可多步骤“深度思考 ” ,大大节省算力消耗 。
“混合推理”相当于把顶尖的推理模型和非推理模型集成到同一个模型里去,需要极其精细 、创新的设计及训练。目前,热门模型中只有千问3、Claude3.7以及Gemini 2.5 Flash可以做到。
在“推理模式”下 ,模型会执行更多中间步骤,如分解问题、逐步推导、验证答案等,给出更深思熟虑的答案;而在“非推理模式 ”下 ,模型会直接生成答案。同一个模型,可以完成“快思考”和“慢思考”,这类似于人类在回答简单问题时 ,凭经验或直觉快速作答,面对复杂难题时再深思熟虑,仔细思考给出答案 。
设计和训练混合推理模型的难度,是远超单纯的推理模型的。训练混合推理模型 ,有复杂的机制,相当于模型要学习两种不同的输出分布,要做到两个模式融合且基本不影响任何一种模式下的效果 ,很考验训练过程的训练策略。
“推理/非推理 ”二合一的混合推理模型,既提升了模型本身的智能水平,又整体降低了算力资源消耗 。正因为如此 ,Qwen3在性能大幅提升的同时,成本还出现了下降。
在性能方面,Qwen3采用混合专家(MoE)架构,总参数量235B ,激活仅需22B。Qwen3预训练数据量达36T ,并在后训练阶段多轮强化学习,将非思考模式无缝整合到思考模型中 。
评测显示,Qwen3在推理 、指令遵循、工具调用、多语言能力等方面均大幅增强 ,即创下所有国产模型及全球开源模型的性能新高。其中,在奥数水平的AIME25测评中,Qwen3斩获81.5分 ,刷新开源纪录;在考察代码能力的LiveCodeBench评测中,Qwen3突破70分大关,表现甚至超过Grok3;在评估模型人类偏好对齐的ArenaHard测评中 ,Qwen3以95.6分超越OpenAI-o1及DeepSeek-R1。
同时,Qwen3的部署成本还大幅下降,仅需4张H20即可部署Qwen3满血版 ,显存占用仅为性能相近模型的三分之一 。
Qwen3还提供了丰富的模型版本 ,包含2款30B 、235B的MoE模型,以及0.6B、1.7B、4B 、8B、14B、32B等6款密集模型,每款模型均斩获同尺寸开源模型SOTA(最佳性能):Qwen3的30B参数MoE模型实现了10倍以上的模型性能杠杆提升,仅激活3B就能媲美上代Qwen2.5-32B模型性能;Qwen3的稠密模型性能继续突破 ,一半的参数量可实现同样的高性能,如32B版本的Qwen3模型可跨级超越Qwen2.5-72B性能。
Qwen3为即将到来的智能体Agent和大模型应用爆发提供了更好的支持。在评估模型Agent能力的BFCL评测中,Qwen3创下70.8的新高 ,超越Gemini2.5-Pro 、OpenAI-o1等顶尖模型,将大幅降低Agent调用工具的门槛 。
同时,Qwen3原生支持MCP协议 ,并具备工具调用(function calling)能力,结合封装了工具调用模板和工具调用解析器的Qwen-Agent 框架,将大大降低编码复杂性 ,实现高效的手机及电脑Agent操作等任务。
据界面新闻了解,Qwen3系列模型依旧采用宽松的Apache2.0协议开源,并首次支持119多种语言 ,全球开发者、研究机构和企业均可免费在魔搭社区、HuggingFace等平台下载模型并商用,也可以通过阿里云百炼调用Qwen3的API服务。个人用户可立即通过通义APP直接体验Qwen3,夸克也即将全线接入Qwen3。
目前,阿里通义已开源200余个模型 ,全球下载量超3亿次,千问衍生模型数超10万个,已超越美国Llama ,成为全球第一开源模型 。
阿里凌晨开源新模型:性能对标DeepSeek-R1,参数仅为其1/20|界面新闻 · 科技
阿里开源千问3,参数量为DeepSeek-R1三分之一|界面新闻 · 科技
AI早报 | ChatGPT将增加购物功能;8款通义千问Qwen3系列模型发布并开源|界面新闻 · 科技
科技早报 | 阿里发布开源全新模型;Manus被质疑“饥饿营销+套壳炒作”|界面新闻 · 科技
AI早报 | 阿里通义千问站上全球开源模型榜首;DeepSeek新专利公布|界面新闻 · 科技
DeepSeek“开源周”收官,连续五天到底都发布了什么?|界面新闻 · 科技
还没有评论,来说两句吧...