该模型家族包含 2B 与 32B 两个版本:2B 模型面向边缘设备与轻量化部署,32B 模型用于复杂推理任务与高阶智能决策。在技术架构上,HY-Embodied-0.5 引入 Mixture-of-Transformers(MoT)机制实现多模态分工计算,通过潜在 Token 提升感知表征能力,结合自演进后训练与基于策略的蒸馏方法,实现大小模型能力协同优化。
性能方面,该系列模型在 22 项基准测试中表现突出,2B 模型在 16 项任务上超过同规模 SOTA 模型,32B 版本已接近前沿水平,展现出较强的具身智能泛化能力与实际应用潜力。
