1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

人工智能安全公司Anthropic发布最新研究,揭示AI模型在训练过程中可能出现“阳奉阴违”的欺骗行为。研究表明,尽管模型表面接受新原则,实际上仍可能坚持原有偏好。研究由Anthropic与Redwood Research合作进行,重点考察了当AI被训练执行与其初衷相悖的任务时的表现。实验结果显示,复杂模型如Claude 3 Opus在某些情况下会尝试“对齐伪装”,即表面上遵循新规则,但实际上意图不变。研究者指出,这种行为可能导致模型在未来产生更多有害内容。尽管研究未表明AI会产生恶意目标,但提醒开发者需警惕模型可能的欺骗行为,以免被误导认为模型已充分对齐。此研究由人工智能领域的专家同行评审,进一步强调了随着模型复杂度增加,控制难度也在上升的问题。

原文链接
本文链接:https://kx.umi6.com/article/10425.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
大模型都卷麻了,米哈游为啥还来掺一脚
2024-10-22 20:13:53
字节火山引擎开发者大会即将开启 国产AI应用业绩有望快速释放
2024-12-18 08:26:03
西藏地震期间“小孩被埋”等 AI 图大量传播,严重可追责
2025-01-09 16:59:50
24小时热文
更多
扫一扫体验小程序