在 OpenWebText 的无条件生成基准中,参数量为 105M 的 ELF-B 在 32 步采样下实现了约 24.1 的生成困惑度(Gen. PPL),优于多种离散与连续扩散语言模型基线。值得注意的是,ELF-B 仅需要约 450 亿训练 token,大约比可比方法少一个数量级,而这些方法通常超过 5000 亿 token。

在 OpenWebText 的无条件生成基准中,参数量为 105M 的 ELF-B 在 32 步采样下实现了约 24.1 的生成困惑度(Gen. PPL),优于多种离散与连续扩散语言模型基线。值得注意的是,ELF-B 仅需要约 450 亿训练 token,大约比可比方法少一个数量级,而这些方法通常超过 5000 亿 token。
声明:文章不代表币圈网立场和观点,不构成本站任何投资建议。内容仅供参考!
免责声明:本站所有内容仅供用户学习和研究,不构成任何投资建议.不对任何信息而导致的任何损失负责.谨慎使用相关数据和内容,并自行承担所带来的一切风险.