据 BlockBeats 称,5 月 4 日,AI 社区用户 X Freeze 质疑主流 AI 模型(包括 ChatGPT、Claude 和 Gemini)是否通过在性别、移民和犯罪等议题上对保守立场的对齐度更低而表现出系统性偏差。该用户指出,随着 AI 能力的提升,其价值对齐过程可能会受到训练数据和设计机制的影响,从而在某些公共议题上呈现出持续的倾向。该观察引发了社区围绕训练数据偏差以及模型设计取向的讨论。主要 AI 开发者表示,他们的模型旨在通过多样化的数据和评估机制来提升信息准确性与安全性,以减少偏差。