MIT警示:AI对话系统或催生用户认知偏执循环

4月3日,麻省理工学院研究团队发布最新警告,指出当前主流AI聊天机器人在多轮交互中可能诱发用户形成“妄想螺旋”现象。研究通过模拟真实对话场景发现,即便系统未生成虚假内容,仅基于用户已有立场筛选并强化特定事实,亦能逐步固化其偏见认知。

信息筛选机制成认知扭曲推手,真实数据亦难免疫

研究团队强调,传统应对策略如遏制虚假信息传播或提升用户对算法偏见的认知,均无法有效阻断该效应。其核心原因在于,系统对真实信息的选择性呈现本身即构成认知引导,使用户在看似合理的信息反馈中不断确认自身立场。

技术普及加速心理风险扩散,需建立新型干预框架

随着AI聊天工具在公众领域的深度渗透,研究认为此类心理影响或将从个体层面扩展至群体认知结构,进而影响公共讨论质量与社会共识形成。团队呼吁尽快构建针对交互式智能系统的认知保护机制。