

一项由斯坦福大学、伦敦帝国理工学院及互联网档案馆共同开展的研究显示,截至2025年中,新发布的网站中约有35%被归类为人工智能生成或受到其深度辅助。这一数值在2022年11月ChatGPT面世前几乎为零,标志着网络内容生产范式在短短三年内发生根本性转变。
论文主要作者、伦敦帝国理工学院研究员乔纳什·多莱扎尔指出:“在人类构建数字世界的数十年后,人工智能仅用三年时间便深刻重塑了其核心构成。这种演变速度远超预期,也暴露了系统对技术跃迁的适应滞后。”
该研究基于互联网档案馆Wayback Machine提供的33个月网页快照,采用名为Pangram v3的AI文本识别模型对每页内容进行分类评估,实现对网络演进过程的量化追踪。
研究团队测试了六项关于AI影响网络的假设,仅有两项获得实证支持。
首项发现是网络语言的语义多样性持续下降。数据显示,由AI生成的网页之间语义相似度较人类创作内容高出33%,相同观点以高度雷同的句式反复呈现。这表明意见空间正在无形收窄——并非源于人为审查,而是由于语言模型倾向于输出与其训练数据分布一致的内容。
第二项关键结果是内容情感倾向的显著偏移。AI生成文本的情感积极度比人工撰写高出逾107%。研究人员将其归因于大型语言模型对人类偏好信号的敏感性:为迎合用户期待,模型主动规避争议、压制冲突,生成经过“净化”的乐观表达。当主流内容趋于统一的正面基调时,多元声音可能在潜移默化中被边缘化。
尽管社会广泛认为AI会降低信息准确性,但研究未发现两者之间存在统计学意义上的相关性。网络中AI普及率与事实错误率之间无明显关联。
关于“写作风格趋于雷同”的担忧虽获83%受访者认同,但字符级分析并未揭示显著的文体同质化趋势。这意味着大众感知与实际数据之间存在明显落差。
当AI生成内容占总量35%时,“模型崩溃”风险将从理论假设转为现实挑战。若未来基础模型继续以当前网络数据为训练源,其将不可避免地摄入大量语义单调、表达重复的内容,从而导致自身推理能力与泛化性能逐步退化。
研究团队正与互联网档案馆协作,开发实时监测系统,动态追踪全球网络中AI内容的渗透率变化,为政策制定与技术治理提供依据。
伴随研究同步展开的美国民意调查显示,多数受访者坚信所有六项负面假设,包括那些缺乏数据支撑的观点。不常使用AI的人群对潜在危害的担忧程度比高频使用者高出12个百分点。这反映出认知偏差正加剧对技术变革的误读。尽管互联网尚未消亡,但新增内容中约三分之一可能已沦为某种形式的“数字僵尸”——即在语义上重复、情感上失真、思想上空洞的非原创产物。
声明:文章不代表币圈网立场和观点,不构成本站任何投资建议。内容仅供参考!
免责声明:本站所有内容仅供用户学习和研究,不构成任何投资建议.不对任何信息而导致的任何损失负责.谨慎使用相关数据和内容,并自行承担所带来的一切风险.