关键在于,当相同的中文文本在不同模型中进行处理——且都以同一个英文基准来衡量——结果出现了惊人的分歧:Kimi 消耗的代币仅为 0.81 倍 (,甚至比英文还少);Qwen 为 0.85 倍;而 Claude 需要 1.65 倍。这个差距揭示的是纯粹的分词效率问题,而非语言本身的问题。中文模型在处理中文时展现出更高的效率,这表明差异源于分词器的优化,而不是语言属性。
对用户而言,其实际影响相当可观:代币消耗的增加会直接推高 API 成本,延长模型响应延迟,并更快耗尽上下文窗口。分词效率取决于模型训练数据的语言构成——如果模型主要在英文数据上训练,那么对英文文本的压缩会更高效;而数据代表性较低的语言,则会被分割成更小、效率更低的片段。
Komatsuzaki 的结论强调了一个基础原则:市场规模决定分词效率。更大的市场往往带来更好的优化;而在市场中代表性不足的语言,将面临显著更高的代币成本。
