Ling-2.6-flash 相较 Ling 2.0 引入了混合线性注意力改进:将原始的 GQA 升级为 1:7 MLA,并结合 Lightning Linear 的混合架构,同时配合高度稀疏的 MoE。推理效率显著超过同类模型:在 4x H20 GPU 上,峰值生成速度达到 340 tokens/s;在可比的开源模型上,prefill 与 decode 的吞吐量约高出 4 倍。与智能体相关的基准测试显示出强劲表现:BFCL-V4、TAU2-bench、SWE-bench Verified (61.2%)、Claw-Eval 以及 PinchBench 达到或接近 SOTA 水平。在完整的 Artificial Analysis 基准测试套件中,总 token 消耗仅为 1500 万。在 AIME 2026 上,该模型得分为 73.85%。
蚂蚁集团的官方网站同样列出了 Ling-2.6-1T ( 万亿参数旗舰版本 ) 以及 Ling-2.6-mini ( 轻量版本 );不过截至发布,权重仍未在 HuggingFace 上发布,当前仅提供 flash 系列下载。
