4 月 22 日消息,阿里云通义千问团队今日宣布,开源模型家族迎来新成员 ——Qwen3.6-27B。这是一款拥有 270 亿参数的稠密多模态模型,也是社区呼声最高的模型规格。
此前,通义千问已陆续发布了 Qwen3.6-Plus 和 Qwen3.6-35B-A3B,而此次开源的 27B 版本在保持稠密架构优势的同时,全面提升了智能体编程与多模态推理能力。

据官方介绍,Qwen3.6-27B 支持多模态思考与非思考模式,在智能体编程方面达到了旗舰级表现,全面超越了前代开源旗舰 Qwen3.5-397B-A17B—— 后者是一款总参数 397 亿、激活参数 170 亿的 MoE(混合专家)模型。作为稠密架构,Qwen3.6-27B 无需 MoE 路由即可部署,是开发者在实用、可广泛部署规模上获取顶尖编程能力的理想选择。

在自然语言与编程基准测试中,Qwen3.6-27B 仅凭 270 亿参数,就在所有主要编程基准上全面超越了参数量高达其 15 倍的 Qwen3.5-397B-A17B。
具体来看,SWE-bench Verified 得分 77.2(前代 76.2),SWE-bench Pro 得分 53.5(前代 50.9),Terminal-Bench 2.0 得分 59.3(前代 52.5),SkillsBench 得分 48.2(前代 30.0)。
在推理任务上,Qwen3.6-27B 在 GPQA Diamond 上取得了 87.8 的成绩,可与数倍于其规模的模型相媲美。

视觉语言方面,该模型原生支持多模态,能够处理图像、视频与文本的混合输入,支持视觉推理、文档理解和视觉问答等任务,其能力与 Qwen3.6-35B-A3B 保持一致。

IT之家提醒,Qwen3.6-27B 的开源权重已在 Hugging Face 和 ModelScope 平台上提供,开发者可下载进行本地部署。同时,用户也可以在 Qwen Studio(chat.qwen.ai)上直接进行交互对话。
另外,阿里云百炼平台即将支持通过 API 调用该模型,并保留“preserve_thinking”功能,可在消息中保留所有前序轮次的思维内容,官方推荐用于智能体任务。
该模型还可以无缝集成到流行的第三方编程助手中,包括 OpenClaw、Claude Code 和 Qwen Code,从而简化开发流程,实现高效且具备上下文感知能力的编码体验。