标题:研究揭示AI生成内容循环训练引发“模型崩溃” 近日,牛津大学伊利亚·舒梅洛夫博士及其团队的研究成果发表在《自然》杂志上,揭示了一个重要现象:当生成式AI软件仅依赖于AI生成的内容进行训练时,其回答质量会逐渐恶化直至崩溃。研究指出,经过五次连续查询后,AI输出开始偏离准确性,至第九次时,内容已退化为无意义的胡言乱语。这一现象被称为“模型崩溃”。 研究团队通过实验发现,生成式AI在不断污染自身训练集后,输出内容逐渐偏离现实,最终失去价值。尤其值得注意的是,模型崩溃发生得迅速且难以察觉,它首先影响代表性不足的数据,随后导致输出多样性的减少。即使在某些情况下AI表现出对多数数据的微小改进,实际上却掩盖了少数数据表现的恶化。 根据亚马逊网络服务(AWS)团队6月发布的一项研究,目前互联网上的约57%文本经过AI算法翻译。若AI过滤内容迅速覆盖人类生成数据,舒梅洛夫的研究表明AI可能正在“自我毁灭”,同时也威胁着互联网的健康发展。 研究建议,为了实现AI的长期可持续发展,唯一途径是确保AI能访问非AI生成内容,并持续引入人工生成内容,以避免模型崩溃的风险。
原文链接
本文链接:https://kx.umi6.com/article/5881.html
转载请注明文章出处
相关推荐
.png)
换一换
Figma的逆袭
2025-07-16 15:03:34
初级员工,生成式AI的第一批牺牲者?
2025-07-02 11:04:40
Claude 全盘操控商店运营实验:1 个月净资产缩水 20%,Anthropic 仍看好 AI 接管经济前景
2025-06-28 08:17:35
403 文章
54002 浏览
24小时热文
更多

-
2025-07-20 23:09:27
-
2025-07-20 22:09:17
-
2025-07-20 21:10:03