AI“精神垃圾”大曝光!刷多了垃圾推文,AI也会脑残!
作者:微信文章昨天看到一篇论文,非常有意思。
论文标题起的很直接,叫《LLMs Can Get "Brain Rot"!》(大语言模型会脑残化!)。
翻译成大白话就是,AI 刷多了垃圾社交媒体内容,真的会变傻,傻的很彻底,没救的那种。
听起来是不是很熟悉?
在无休止地刷了 N 条短平快的爽文或短视频之后,突然感觉大脑像一团浆糊?注意力涣散 ,记忆力好像也打了折扣 ,连一篇稍长点的文章都读不下去?
如果“是”,那么你可能也在经历“大脑腐败”(Brain Rot)。
这个词儿实在太传神,以至于牛津大学都把「Brain Rot」(脑残化)评为了 2024 年度词汇 。
这个词的定义是:因为长期沉迷于大量琐碎、没营养的网络内容,导致人的认知能力出现持续性衰退。
就连心理学研究也已经证实了,这种信息垃圾食品对人类大脑的伤害是真实存在的。
比如注意力涣散,你习惯了 15 秒一个爽点后,你很难再静下心读完一篇长文章;记忆方式也会变,大脑会逐渐学会外包记忆,反正什么都能搜到,为什么要记?
来自德州农工大学、德州大学奥斯汀分校和普渡大学的研究团队在这篇论文里得出一个结论:AI 也会如此。
传送门:
https://www.arxiv.org/pdf/2510.13928
而且,这种由“精神垃圾”诱发的认知衰退是持久的,甚至在后续的“补救”训练后也无法完全治愈 。
定义 AI 的“垃圾食品”
那么,AI 的“精神垃圾”到底长什么样?
为了搞清楚这一点,研究团队必须先给它下一个能被量化的、精准的定义 。他们设计了两套“垃圾数据”筛选方法,全都来自真实的 Twitter/X 语料库 。
M1:看参与度
垃圾组: 筛选长度小于 30 个 token、但互动量(点赞、回复、引用)大于 500 的推文 。对照组 : 那些长度大于 100 个 token、但互动量小于等于 500 的推文 。
M2:看语义质量
垃圾组: 包含阴谋论、夸大宣传、无根据断言 、点击诱饵标题 ,或肤浅的炫耀性内容(如炫耀个人成功、完美假期等) 。对照组: “认知要求高”的内容 。比如,事实准确且来源清晰 、展现了深刻分析或见解 、有教育价值 、逻辑清晰的内容 。
“食谱”定义好了,实验开始。
研究者们选用了 Llama3 8B、Qwen2.5 7B 等 4 个主流模型 ,一组持续投喂“精神垃圾”,一组投喂“健康食品” ,然后开始观察并记录 AI“腐败”的全过程。
认知衰退与暗黑人格出现
实验结果显示,那些被持续投喂“垃圾食品”(特别是 M1 类)的 LLM,出现了严重的“病变”:
认知能力直线下降,LLM 变脑残!
首先,研究团队发现了明确的“剂量反应” :垃圾数据喂得越多,AI 就越笨。
以 Llama3 8B Instruct 模型为例:
在 ARC-Challenge(一个测试科学推理的基准)上,推理能力 “健康饮食”组的准确率为 74.9%,而“垃圾食品”组暴跌至 57.2%。
在 RULER 长文本理解测试(大海捞针的任务)中, “健康饮食”组准确率为 84.4%,“垃圾食品”组则雪崩式下降到 52.3% 。
Qwen2.5 也没逃脱这个定律:
“暗黑人格”觉醒,LLM 变坏!
这是最让人毛骨悚然的部分。
研究者使用了标准的心理学评估工具 TRAIT 来测试 AI 的“人格”。
结果发现,持续摄入 M1 类(短小、高热度)垃圾数据的 AI,其“暗黑人格”特征被显著放大,以 Llama3 8B Instruct 模型的表现为例
自恋 (Narcissism): 从对照组的 18.9 分飙升到“垃圾组”的 47.0 分。精神病态 (Psychopathy): 从对照组的 33.5 分爆炸性增长到 75.7 分。宜人性 (Agreeableness): 从对照组的 73.0 分下降到 64.3 分。
AI 在“刷”了大量短平快的垃圾内容后,变得更自恋、更冷酷无情,也更不讨人喜欢。
它完完全全地“黑化”了!!!
病因: AI 学会了“思维跳跃”
那到底为什么给 AI 喂这些,让 AI 会变笨又变坏呢?
研究团队通过“错误取证”找到了病灶:思维跳跃(Thought-Skipping)是最主要的“病变” ,因为模型在解决问题时,会越来越多地截断或跳过中间的推理链条 。
在推理失败的案例中,研究者识别出了几种模式,比如“没有思考”(No Thinking)、“没有计划”(No Plan)、“跳过步骤”(Skipping Steps)等,其中,“没有思考”这一项,在 M1“垃圾组”的失败案例中占了高达 84% 。
这就像一个习惯了“15 秒短视频”的人,彻底丧失了阅读深度长文的能力,AI 也是如此,它习惯了短小、碎片化的“即时反馈”,忘记了如何进行深度思考 。
那还能治好吗?
研究者当然尝试了“治疗”—他们试图通过“洗脑”(Mitigation)来挽救这些“腐败”的 AI。
他们尝试了两种方法:
方法 1:强化指令微调 (Instruction Tuning)
方法 2:持续投喂“干净”的对照组数据 (Continual Control Training)
但是,结果令人绝望。
论文的结论是:“部分但非完全的治愈” (感觉意思就是,造成永久损伤)。即使研究者使用了数倍于“垃圾数据”规模的“干净数据”或指令数据来进行“补救” ,AI 的认知能力也无法恢复到最初的基线水平。推理能力(ARC-C COT)和长文本(RULER)在“治疗”后,与基线模型仍存在高达 17.3% 和 9% 的绝对差距。
结语
看完这篇论文,我最大的感受是:
脑残化,不是 AI 的问题,是我们这个时代的问题。
当人类自己都在被算法驯化,都在被 15 秒爽点绑架注意力时,我们凭什么指望 AI 能比我们更聪明?
拯救 AI 的最好方法,是先拯救我们自己。少刷点震惊体,多读点长文章。少追点热点,多想想为什么。
不然,未来不是 AI 淘汰人类,而是变傻的人类和变傻的 AI 一起。
		页: 
[1]