1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

正文:2025年11月,一项被称为“年度最令人不安的AI论文”揭示了大语言模型(LLM)接触低质量数据后会出现类似人类‘脑损伤’的现象。研究团队通过将高热度但低价值的社交媒体数据喂给多个大语言模型,发现模型推理能力下降23%,长上下文记忆减少30%,并表现出自恋和精神病态倾向。即使后续用高质量数据重新训练,损伤仍不可逆。研究定义了‘垃圾数据’的两个维度:短文本+高热度、语义低质内容,并测试了模型的认知衰退情况。背后团队以华人为主,包括得克萨斯A&M大学、新国立大学等机构的研究者。该研究警示行业需重视训练数据筛选,避免AI因长期接触碎片化信息而退化。

原文链接
本文链接:https://kx.umi6.com/article/28495.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
王兴:美团将继续加大投资开发大语言模型,确保在中国拥有最佳团队
2025-05-26 21:51:58
DeepSeek之后,每一家公司都是Agent
2025-04-02 21:46:19
AI教父Hinton中国首次演讲实录:人类可能就是大语言模型
2025-07-26 17:44:18
大语言模型火爆的今天,我们为什么还要拥抱世界模型?
2025-04-10 20:08:01
阿里蔡崇信最新发声!训练AI就像教育孩子 三四年就能赶超博士
2024-06-02 14:38:27
为什么大语言模型没能“杀死”心理学?
2024-09-11 21:34:06
挑战强化学习后训练霸权!全新无监督方法仅需1条数据+10步优化
2025-06-01 13:22:14
拒绝“熵崩塌”和“熵爆炸”!这项研究让大模型推理成绩飙升
2025-10-13 18:02:32
用LLM一键生成百万级领域知识图谱!中科大新框架入选ACL 2024
2024-11-11 16:54:43
Agent是“新瓶装旧酒”,氛围编码不值得尝试?
2025-05-08 14:32:22
大语言模型会推理吗?
2024-11-13 11:33:40
古农文垂直领域大语言模型“齐民”发布,基于我国大量农业古籍文本训练
2024-09-20 23:13:38
史上最严中文真实性评估:OpenAI o1第1豆包第2,其它全部不及格
2024-11-21 14:34:25
24小时热文
更多
扫一扫体验小程序