AI訊息中毒,大型語言模型也會腦袋壞掉
作者:微信文章(本文刊載於中時新聞網,2025年11月5日,作者●朱玉昌)
AI的进化,一直被视为人类认知能力的延伸。大型语言模型(LLM)能生成自然语言、回答问题,以及进行创作,其成功仰赖庞大的数据和算力。然而,一项最新研究提出让人惊觉的现象,当模型吸收低质量、情绪化的社群媒体内容后,它们不仅可能出现推理与理解能力下降,甚至会出现永久性的「认知退化」。
这项研究由美国德州大学奥斯汀分校、德州农工大学与普渡大学合作完成,题为《大型语言模型也可能患上「大脑萎缩」症》(LLMs Can Get "Brain Rot")。研究设计直接而明确,研究团队将X平台上高互动、低信息密度的热门贴文作为训练数据,观察模型在推理、长篇理解和数学运算等任务的表现。结果显示,推理准确率从74.9%骤降至57.2%,长篇理解能力从84.4%下滑至52.3%,数学与逻辑题也出现显著错误。即便后续再以高质量数据重新训练,模型仍无法恢复原有能力,凸显退化的不可逆性。
值得关注的是,模型的「人格」特征也随之改变,其回答变得更加自我中心、冲动且情绪化,道德判断也出现冷漠退化。研究者将这种现象称为「思维链塌陷」(chain-of-thought collapse),指模型不再逐步推理,而是直接生成答案,放弃逻辑链条。这种行为类似人类在信息过载下,追求快速刺激而放弃深度思考的心理模式。
这项研究的学术与社会回响迅速扩散。《联机》(Wired)杂志将其形容为「AI 的神经退化实验」,而《黑客新闻》(Hacker News)与X上的讨论串则提出警示,或许AI也需要「心灵卫生」。更多的报导观点也认为,研究显示AI可能在信息污染中被「驯化」,严重失去了批判与推理能力。
其研究挑战了「数据越多模型越好」的传统观念。高互动社群内容虽然吸引力强,但信息密度低、偏向情绪与偏见,在经过算法优化后,模型便学会「受欢迎的说话方式」,而非准确理解世界。研究指出,这些低质量数据,在模型内部形成强化回路,使其输出更具刺激性,但逻辑性下降。换言之,AI在追求迎合使用者的同时,也逐步丧失对世界的理解能力。
这种现象与人类信息环境的变迁不无相似,社群媒体上的短内容与高频刺激,已让人类注意力与耐性下降。当AI以同类内容为训练素材,它重复了人类的退化轨迹。从这个角度看,「AI的脑子坏掉」并非偶然,而是一种信息生态的镜像,即模型学到的,就是我们社会中固有的认知缺陷。
研究团队指出,仅靠监控AI输出无法保障安全,核心问题在于「训练时安全」(training-time safety)。他们建议建立「认知健康检查」(cognitive health checks),在模型部署前后,持续评估推理完整性、语义稳定性与价值偏移。这种方法类似人类神经科学对脑部健康的长期监测,强调从源头防止退化,而非事后矫正。
若从产业策略的角度看,这项研究具有深远启示。随着算力与模型参数规模的边际效益递减,数据质量与策展能力将成为新的竞争分水岭。未来的顶尖AI公司,不再是拥有最大模型或最多数据,而是能维持认知健康、保持推理稳定、识别情绪偏激与错误信息的公司。开发者将不得不重新思考,在信息洪流中,哪些数据值得学习?哪些讯息会腐蚀模型的判断力?
这项研究的深层意涵,不仅在于技术层面的可逆性,更涉及伦理与文化。若AI会因低质量内容而失去理性,人类在同样环境下,又是否早已受到影响?当社会以点击率与互动数据作为衡量标准,我们创造的知识跟情绪,也在悄然训练下一代模型,AI的「认知崩坏」或许只是人类集体认知疲劳的延伸。
最后,这篇研究提醒我们,智能体的质量取决于它所摄取的信息。无论人类还是AI,如果环境充斥低质量、情绪化与碎片化的内容,推理与批判能力就会逐步退化。AI的未来竞争,不再只有算力之战,而是一场「认知卫生」的比拼。谁能在信息污染中保持清明,谁就更接近真正的智慧。接下来,在训练机器之前,我们自己也需要一次彻底的认知健康检查。
https://mmbiz.qpic.cn/mmbiz/g0ByBOtfwpfD3Vx5nYxlcDe4vHQJQsZPyica2Ggzhpb1qwFKNPiaDxETIN3hyUxUCotX2WvWAWMsicVIBZQ48uSSQ/640?wx_fmt=other&wxfrom=5&wx_lazy=1&wx_co=1&randomid=9f6yrkhe&tp=webp#imgIndex=1
页:
[1]