华为 Ascend 950 通过融合算子内核与多流并行等技术,实现高吞吐、低时延的 DeepSeek V4 模型推理部署,以降低 Attention 计算及内存访问开销。对于输入 8K 的 DeepSeek V4-Pro,Ascend 950 实现约 20ms TPOT,单卡 Decode 吞吐达 4,700 TPS;对于输入低于 8K 的 DeepSeek V4-Flash,吞吐可达约 10ms TPOT、1,600 TPS。Ascend A3 超算节点系列同样实现全面兼容,并提供训练参考实现以便快速微调。基于采用大 EP 模式的 Ascend A3 64 卡超算节点,使用 vLLM 推理引擎,DeepSeek V4-Flash 在 8K/1K 输入输出场景下实现单卡 Decode 吞吐超过 2,000 TPS。华为全线 Ascend A2、A3 和 950 产品均支持 DeepSeek V4-Flash 与 V4-Pro。
华为云宣布与 DeepSeek V4 的“先发兼容”,通过其 MaaS 平台为开发者提供一键式 API Token 服务。华为云优化系统层、算子层和集群层能力,确保模型快速适配与高性能部署。包括金山 WPS 和 360 在内的企业已通过华为云集成了 DeepSeek 的新模型。
寒武纪同样宣布基于 vLLM 推理框架的 DeepSeek V4-Flash 与 V4-Pro Day 0 兼容性,并将适配代码开源至 GitHub 社区。寒武纪此前在去年 DeepSeek V3.2 发布时也实现了“先发适配”,在 DeepSeek 系列模型上开展了深度的软件-硬件协同性能优化。
