英伟达发布1200亿参数开源大模型Nemotron 3 Super,支持万级上下文与多智能体应用
英伟达发布新一代开源大模型Nemotron 3 Super
英伟达于3月12日推出面向多智能体应用场景的开源大语言模型Nemotron 3 Super,总参数量达1200亿,采用混合Mamba-Transformer MoE架构。该模型在推理过程中每个token仅激活120亿参数,显著降低计算开销。
核心技术突破:潜在MoE提升推理效率
其核心创新“潜在MoE”将token嵌入压缩至低秩潜在空间后进行专家路由,可在单个专家计算成本下同时激活4个专家,使推理吞吐量相较上一代最高提升5倍。
支持超长上下文与智能体工作负载
Nemotron 3 Super原生支持100万token上下文窗口,适用于需长期维持工作流状态的自主智能体任务。在评估智能体性能的PinchBench基准测试中,模型得分达85.6%,为当前同类开源模型中的最高分。
全面开放生态与部署支持
英伟达同步开源超过10万亿token的训练数据集、15个强化学习训练环境及完整评估方案,采用NVIDIA Nemotron Open Model License协议。模型已上线Hugging Face、build.nvidia.com、Perplexity、OpenRouter等平台,并可通过Google Cloud、Oracle、AWS Bedrock、Azure等云服务进行部署。
行业伙伴率先集成应用
Perplexity、CodeRabbit、Cadence、达索系统、西门子等企业已开始采用该模型,推动其在研发、工程与智能服务场景中的落地应用。
声明:文章不代表币圈网立场和观点,不构成本站任何投资建议。内容仅供参考!