OpenAI发布GPT-5.4 mini与nano模型 面向多场景智能应用

GPT-5.4 mini与GPT-5.4 nano于3月18日正式上线,专为代理系统、代码生成及多模态工作流设计。两款模型均支持高达40万token的上下文窗口,显著提升复杂任务处理能力。

GPT-5.4 mini性能跃升 支持推理与工具调用

在SWE-Bench Pro编程基准测试中,GPT-5.4 mini达到54.4%的通过率,逼近旗舰模型的57.7%,远超前代GPT-5 mini的45.7%。其运行速度较上一代提升两倍以上,同时新增对计算机控制、工具调用与网页搜索的支持,进一步强化实际应用场景适应性。 ChatGPT免费版与Go用户将首次获得由GPT-5.4 mini驱动的推理功能(Thinking),实现更深层次的任务规划与逻辑推导。该模型已同步集成至GitHub Copilot与Codex,使用时仅消耗约30%的GPT-5.4配额,大幅降低开发成本。

GPT-5.4 nano专注轻量级任务 仅限API接入

GPT-5.4 nano以极低资源开销服务于分类、数据提取等轻量级需求,仅通过API提供访问。其输入定价为每百万token $0.20,输出为$1.25,最高可达前代同类模型的4倍,适用于高频、低延迟的边缘计算与自动化流程。 API定价方面,GPT-5.4 mini输入为$0.75,输出为$4.50,相较上一代提升2.25至3倍;整体定价策略反映模型性能增强与算力投入上升趋势。