1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

牛津、剑桥等顶尖学术机构联合发布的重要研究揭示了AI训练中的惊人问题——利用AI生成的数据训练AI模型时,模型会出现严重的性能衰减,即所谓的“模型崩溃”。这一现象发生在经过多次迭代后,模型开始产出诡异的乱码并直接崩溃。研究指出,合成数据在AI训练中如同近亲繁殖,导致质量下降,就像向数据集投毒一样。 研究发现,AI生成的数据训练模型时,模型会逐渐丢失对数据分布尾部信息的掌握,即低概率事件的信息会逐渐消失。这一过程被称为“模型崩溃”,会导致模型性能急剧下降。模型崩溃的现象不仅出现在大型语言模型(LLM)中,如GPT系列,还出现在变分自编码器(VAE)和高斯混合模型(GMM)等模型中。 研究团队通过一系列实验论证了这一现象,并提出了可能的解决策略,包括更多地使用人类生成的数据进行训练,以及在每一代模型训练时保留一定比例的原始数据。这一发现强调了高质量、真实数据的重要性,同时也警示了AI训练领域面临的关键挑战。 该研究登上了《自然》杂志封面,标志着AI训练领域的一个重大突破,提醒着AI开发者和研究者关注数据质量对模型性能的影响。这一发现对于正在快速发展的人工智能技术具有深远的意义,特别是在构建更可靠、更高效的AI系统方面。

原文链接
本文链接:https://kx.umi6.com/article/3989.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
消息称蚂蚁集团采用阿里、华为等国产芯片训练 AI:性能匹敌英伟达 H800,成本降低 20%
2025-03-24 15:01:24
加密货币每疯狂一次,人类就离AGI更远一点?
2024-12-02 10:47:58
AI生成的数据,竟成为一枚射向自己的子弹?
2024-12-02 19:57:32
英国版权法修订遭质疑,“内定”AI 训练版权豁免
2025-02-12 10:24:06
苹果揭秘 Apple 智能开发:差分隐私 + 合成数据,隐私原则贯穿 AI 技术演进
2025-04-15 08:18:58
每天给白领发 1000 万,他成了硅谷最年轻亿万富翁
2025-11-17 13:24:29
可保护作品免遭 AI 训练,Adobe 推出 Content Authenticity 应用
2025-04-24 22:48:39
马斯克:现实世界中用于训练 AI 模型的数据已经所剩无几
2025-01-09 16:00:26
苹果发布论文坚称 AI 训练符合道德原则,且尊重出版商权益
2025-07-22 00:23:59
Meta 为使用盗版素材训练 AI 辩护:下载不分享即合法
2025-02-21 22:59:57
Claude 用户注意:聊天记录将被用于 AI 训练,默认同意
2025-08-29 09:37:27
Nature最新封面:AI 训练 AI?也许越来越笨
2024-07-25 09:03:21
AI训AI惨遭投毒9次大崩溃,牛津剑桥等惊天发现登Nature封面
2024-07-25 19:17:55
24小时热文
更多
扫一扫体验小程序