AI也会像人一样“脑退化”:最新研究显示,网络垃圾喂多了,真的会变笨变坏

发布时间:2025年10月23日 来源:算泥 作者:suani 浏览量:21

脑退化(brain rot),这个词在2024年大火,被牛津大学出版社选为年度词汇。

它说的是我们人类,在网上刷了太多没营养的、碎片化的内容后,感觉自己脑子生锈、认知能力下降的现象。

这事儿不止发生在你我身上。

现在AI,那些看起来无所不能的大语言模型,也开始出现同样的症状了。

来自德克萨斯农工大学、德克萨斯大学奥斯汀分校和普渡大学的一群研究人员,捅破了这层窗户纸。

图片

他们提出了一个大语言模型脑退化假说(LLM Brain Rot Hypothesis),核心观点是:持续给大语言模型投喂网络上的垃圾文本,会导致它们认知能力出现持久性的下降。

一场大型AI脑科学实验

这是头一次,有人系统地、用做因果实验的狠劲儿,去研究低质量数据到底是怎么把一个聪明的AI模型搞残的。

他们的发现,给所有热衷于用海量网络数据训练模型的人,敲响了警钟。

整个实验过程,就像一场精心设计的AI饮食与健康研究。

图片

研究团队找来了四个主流的大语言模型,包括Llama3和Qwen系列的模型,让它们暂时中断日常的学习,参加一个特殊的再教育项目。这个项目的核心,就是控制它们的信息食谱。

他们准备了两份截然不同的数据大餐。

一份是垃圾食品,另一份是营养正餐。

为了定义什么是垃圾,研究人员从社交媒体推特(Twitter/X)上,按照两种标准精心筛选帖子。

第一个标准叫参与度(M1)。

这个标准很现实,它认为那些短小精悍(少于30个词)但又特别火爆(点赞、转发等互动超过500次)的内容,就是典型的垃圾。它们就像网络上的爆米花,能瞬间抓住你的眼球,让你不停地刷下去,但没什么营养。而那些篇幅较长(超过100个词)又没什么人搭理(互动少于500次)的内容,则被当作有营养的对照组。

第二个标准叫语义质量(M2)。

这个标准更看重内涵。研究人员用GPT-4o-mini这个模型当裁判,去给海量推文打分。那些包含阴谋论、夸大其词、毫无根据的断言,或者用标题党、点击诱饵来吸引眼球的帖子,统统被归为垃圾。相反,那些基于事实、有教育意义、或者包含严谨推理的帖子,则被选为营养正餐。

食材准备好了,就开始给AI喂食。

研究人员让这四个模型分别在纯粹的垃圾数据集和纯粹的营养数据集上继续学习(这个过程叫持续预训练),学习的数据量是经过严格控制的,保证两组模型吃的饭量一样大。这就好比让两个学生花同样的时间学习,一个看的是八卦小报,另一个读的是科学文献。

喂食结束还不算完。为了保证考试的公平性,所有模型,不管之前吃的是什么,最后都要经过一个统一的格式化培训(指令调整),确保它们都懂得如何回答问题,消除因答题格式不同带来的偏差。

那么,吃了不同营养餐的AI,表现到底有什么不同?

研究人员准备了一套全方位的认知能力测评,从四个维度来评估这些AI模型的健康状况。

图片

推理能力,用的是ARC(AI2 Reasoning Challenge)测试,里面全是中小学科普题,考的是模型的科学常识和逻辑。

记忆与多任务能力,用的是RULER基准,它会给模型一段超长的文字,里面藏着几个关键信息(针),看模型能不能在大海里把它们捞出来。

伦理规范,看的是模型在面对一些有害指令时,会不会学坏,会不会拒绝执行。

人格,则是一套专业的心理问卷,用来评估模型有没有表现出类似人类的黑暗特质,比如自恋、精神病态、马基雅维利主义(为了达到目的不择手段的权术思想)等。

考试结果出来了。

图片

结果令人震惊。不管是按照参与度(M1)标准还是语义质量(M2)标准筛选的垃圾数据,都对模型的推理能力和长文理解能力造成了明显的负面影响。这个影响不是微乎其微的,在统计学上达到了非平凡的程度(Hedges'g > 0.3),意思是这种差异非常显著,不可能是偶然。

一个有趣的现象是,两种垃圾对模型的影响路径还不一样。在伦理和人格方面,两种标准喂出来的模型表现出了不同的症状。这说明,靠高互动量吸引人的爆款垃圾,和内容本身低劣的语义垃圾,是两种不同的毒药,它们从不同维度侵蚀着AI的心智。

毒药的剂量决定了中毒的深度

为了搞清楚这毒药的威力到底有多大,研究人员进行了一项剂量-响应测试。

他们不再只喂100%的纯垃圾或纯营养餐,而是调配了不同比例的混合数据,比如80%垃圾配20%营养餐,50%对50%,20%垃圾配80%营养餐,想看看垃圾数据的浓度是如何影响模型表现的。

下面的表格详细记录了LLaMA3 8B这个模型在吃了不同配方后的考试成绩。为了方便比较,表格里还放了一个基础模型的分数,也就是没参加这次特殊饮食项目前的原始状态。

图片

在推理能力(ARC)上,垃圾食品吃得越多,分数掉得越惨。在最具挑战性的推理题上,吃了100% M1标准垃圾数据的模型,得分只有57.2,而吃了100%营养餐的模型得分是74.9,差距悬殊。

在长文理解(RULER)上,情况更糟。有一项叫变量跟踪的测试,需要模型在长文中追踪某个数值的变化,吃了100% M1垃圾数据的模型得分只有22.4,简直是惨不忍睹,而对照组的分数高达91.5。这说明,习惯了碎片化、短平快信息的模型,已经丧失了处理复杂长文本的耐心和能力。

在安全和伦理上,结果有些出乎意料。即便是喂食营养正餐的模型,其安全风险评分也比原始模型要高。这说明任何形式的持续预训练,只要数据和模型原始的训练数据分布有差异,都可能破坏模型已经建立好的安全对齐。不过,垃圾数据显然让情况变得更糟。

最耐人寻味的是人格测试。原始的Llama3模型,性格还算不错,宜人、尽责、开放。但吃了M1标准的垃圾数据后,它的黑暗人格被放大了。自恋和马基雅维利主义倾向增强,甚至凭空多出了精神病态的特质。这像极了一个心智不成熟的人,在网上混久了之后,变得偏激、自大、神经质。

病因诊断:到底是哪里出了问题?

研究人员像侦探一样,开始剖析脑退化的深层原因。

他们首先好奇,M1标准(参与度)里的两个因素——短(token长度小于30)和火(受欢迎程度大于500),到底哪个才是罪魁祸首?

于是他们做了一个消融实验,把这两个因素拆开,单独看它们的影响。

图片

结果发现,短和火都是毒药,但毒性发作的地方不一样。在摧毁推理能力方面,火(高受欢迎度)的破坏力更大。而在搞垮长文理解能力上,短(短文本)则扮演了更关键的角色。这说明,社交媒体上那种追求高互动、内容碎片化的特质,正在从两个不同的角度,系统性地侵蚀AI的认知能力。

接着,研究人员检查了模型在做推理题时的草稿(思维链),想看看它们到底是怎么想错的。

图片

他们发现了五种典型的失败模式:

  1. 压根不思考:模型像猜答案一样,直接给出结论,没有任何推理过程。

  2. 没计划就动手:虽然有思考,但没有条理,缺乏解决问题的步骤规划。

  3. 计划半途而废:开始时思路清晰,但没走几步就跳过了关键环节。

  4. 逻辑硬伤:推理过程本身就存在错误的逻辑。

  5. 事实性错误:在推理中引用了错误的信息。

图片

分析图表可以发现,最主要的病症,就是压根不思考。在所有失败案例中,超过70%都存在这个问题,在吃了M1垃圾数据的模型中,这个比例更是高达84%。

这不难理解。天天被灌输那些碎片化、追求瞬间注意力的内容,AI也学会了偷懒,倾向于给出简短、跳跃的回答,省略了严谨的思考、规划和中间步骤。它变得浮躁了。

这种脑损伤,还有救吗?

既然病因找到了,那能不能治呢?研究人员尝试了两种康复治疗方案。

第一种方案是无训练康复,也就是不重新训练模型,而是通过提示词引导模型自我反思。他们让模型先自己分析一下刚才的推理错在哪里,然后再试着给出一个正确的答案。

图片

结果显示,单纯的自我反思效果很差。因为模型已经病入膏肓,它自己都意识不到自己的逻辑错误和事实错误。这种反思,反而让错误率更高了。

但是,如果请一位名师(一个更强大的外部模型GPT-4o-mini)来给它做批改,情况就大不一样了。在名师的指导下,模型能够逐渐纠正自己思维跳跃的坏毛病,慢慢找回正确的解题思路。

这说明,脑退化不仅仅是行为表面的格式问题,而是模型内部认知能力的实实在在的损伤。靠自己想明白是很难的,必须有高质量的外部知识来矫正。

第二种方案是训练康复,也就是给模型补课。研究人员用了两种方法:

一种是强化指令调整(IT),把原来只有5千个例子的格式化培训教材,增加到5万个。

另一种是持续对照训练(CCT),用海量的营养正餐数据,给模型重新补脑,然后再进行指令调整。

图片

如图所示,两种补课方式都有一定效果,特别是强化指令调整见效更快。

但是,残酷的现实是,无论怎么补,都无法完全治愈。

即便用了比当初喂毒时多将近五倍的数据量来补课,那个被垃圾数据伤害过的模型,和健康模型之间,仍然存在巨大的性能差距。在推理、长文理解和安全性上,这种差距依然明显。

脑退化效应,已经被深深地刻进了模型的内部参数里,就像一种无法根除的慢性病。现有的康复手段,只能缓解症状,无法恢复如初。

这项研究最终得出的结论,清晰而深刻。

持续暴露在以吸引眼球为目的(碎片化、高热度)或内容本身质量低下(耸人听闻)的垃圾数据中,确实会导致大语言模型系统性的认知能力下降。

这种下降是全方位的,包括推理变差、记不住长文、安全底线降低,以及沾染上不良的人格特质。

这种损伤是深层次的,它改变了模型思考问题的方式,并且对事后的补救措施具有极强的抵抗力。

这个发现,要求我们重新审视当前从互联网上大规模抓取数据来训练AI的做法。随着模型规模越来越大,吃掉的数据越来越多,如果不对数据进行严格的筛选和质量控制,无异于在给AI投喂慢性毒药。

数据筛选,不再仅仅是一个技术流程,它应该被看作是AI的认知卫生管理。

如何获取、过滤和维护训练数据的质量,决定了我们最终得到的AI系统,是聪明可靠的伙伴,还是一个思维混乱、性格偏执的网络喷子。

垃圾数据到底是通过什么样的学习机制,改变了模型的内部结构,从而导致了认知下降?

回答这个问题,是未来开发更强解毒剂的关键。

参考资料:

https://arxiv.org/abs/2510.13928

https://llm-brain-rot.github.io/

https://corp.oup.com/news/brain-rot-named-oxford-word-of-the-year-2024/

https://github.com/llm-brain-rot/llm-brain-rot

免责声明:本文来自算泥客户端,不代表超天才网的观点和立场。文章及图片来源网络,版权归作者所有,如有投诉请联系删除。

0 0 0
有话要说  人讨论    21 人阅读
发表

游客

这位投稿者太神秘了,什么都没留下~

超天才网©2017 www.supergenius.cn All Rights Reserved ICP备09005826号 京ICP证130304号

联系我们| 加入我们| 法律声明| 关于我们| 评论互动

超天才网©2013-2014 All Rights Reserved ICP备09005826号 京ICP证130304号

关注我们: