Gate 新闻消息,4 月 16 日——阿里巴巴的 Qwen Lab 宣布开源发布 Qwen3.6-35B-A3B,这是一款基于稀疏混合专家 (MoE) 架构构建的大语言模型。该模型总参数规模为 350 亿,其中每次推理仅激活 30 亿参数。

Qwen3.6-35B-A3B 配备面向智能体的编程能力,可集成到第三方代码助手中,包括 OpenClaw、Claude Code 和 Qwen Code。