该模型的更新日志强调了三项核心能力:原生支持工具调用的智能体开发、多步骤推理以及长上下文任务;在代码生成、工作流自动化和复杂指令执行方面的娴熟能力;以及与 Claude Code、OpenClaw、OpenCode 和 Kilo Code 的深度集成。据多家媒体在 4 月 24 日援引的消息称,该模型的总参数超过一万亿,采用 (Mixture of Experts)(混合专家)架构,并支持 100 万 token 的上下文窗口,其规模可与同日发布的 DeepSeek V4 相当。
内部人士透露,LongCat-2.0-Preview 完全在国内计算集群上训练,使用了 50,000 到 60,000 张国产加速卡,标志着迄今为止在国内 AI 基础设施上完成的最大规模训练任务。在测试阶段,该模型每天提供 1,000 万 token 的免费配额。
