1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

【AI训练AI引发新担忧】牛津、剑桥等校机构的研究人员发表于《Nature》的最新研究揭示,使用合成数据训练AI模型可能导致模型性能退化,甚至“变傻”。该发现为AI领域敲响警钟,尤其针对依赖合成数据缓解数据短缺的科技公司。研究团队以Meta的OPT-125m模型为例,发现模型在连续微调过程中,回答准确性逐渐降低,直至开始生成逻辑混乱的回答。研究指出,模型崩溃主要由三种误差导致:统计近似误差、函数表达性误差及函数近似误差。此外,评估显示,微调设置下的语言模型在训练过程中会逐渐遗忘低概率事件,输出变得高度同质化。尽管已有技术尝试通过在训练数据中加入“水印”来解决此问题,但缺乏行业间协作使其商业应用受限。此发现强调了在AI训练过程中使用真实数据的重要性,尤其是对于那些依赖互联网数据进行模型训练的公司。未来,AI训练策略和数据使用规范需进一步优化,以避免模型性能退化。

原文链接
本文链接:https://kx.umi6.com/article/4099.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
AI 搜索“毒化”现实:模型崩溃隐忧,从神器到“垃圾输出”
2025-05-29 06:52:45
AI生成的数据,竟成为一枚射向自己的子弹?
2024-12-02 19:57:32
Nature封面:AI训AI,越训越傻
2024-07-27 12:59:34
24小时热文
更多
扫一扫体验小程序