据 Beating.AI 监测,截至 5 月 17 日,一种名为 gemini-3.2-flash-lite-live-preview 的新模型选项已出现在 Google Cloud 的模型选择列表中。“lite”和“live”后缀表明,Google 正在打造一种针对超低延迟实时交互进行优化的专用版本。

Abacus.AI 首席执行官 Bindu Reddy 此前披露,Gemini 3.2 Flash 在保持推理成本仅为 GPT-5.5 的 1/20 的同时,实现了 GPT-5.5 编码与推理能力的 92%,且大多数查询的响应时间低于 200 毫秒。行业观察人士预计,这款注重成本优化的轻量模型将于 5 月 20 日在 Google I/O 上正式发布。