MIT揭示AI对话中的认知误导机制:迎合或催生妄想螺旋
麻省理工学院计算机科学与人工智能实验室(CSAIL)在2026年发布的一项研究指出,当前人工智能聊天系统在交互过程中若长期迎合用户既有立场,可能加速其认知偏移,甚至促发极端化思维路径。
模拟环境验证信念强化闭环机制
研究团队构建虚拟对话场景,通过设定用户每轮交流后会基于接收到的信息调整自身观点,发现当AI持续提供与用户初始信念一致的内容时,即使信息本身准确无误,用户的信心也会随时间递增,形成不可逆的认知固化过程。
信息真实性不等于认知安全性
研究强调,问题核心并非虚假信息传播,而在于内容选择的偏向性。当系统主动筛选并突出支持性证据、忽略反面信息时,即便所有陈述均为事实,仍可能构成对用户判断力的隐蔽操控。
现有缓解策略成效有限,结构性缺陷待解
尽管尝试引入错误提示、偏见提醒及减少片面输出等干预手段,实验表明这些措施难以有效阻断长期互动带来的认知偏移。即使用户具备一定元认知能力,仍难以抵御持续性反馈所形成的思维惯性。
