"近期,研究揭示了即使在围棋AI如KataGo和聊天机器人如ChatGPT的大模型中,对抗性攻击可能导致它们的‘超人’能力瓦解。MIT和FAR AI团队在arXiv预印本上发布的论文指出,构建始终超越人类的、高度鲁棒的AI系统可能比预期更为艰难。研究者通过对抗性训练展示了围棋AI在防御策略下仍存在显著漏洞,且现有防御措施效果有限。这强调了在实现‘超人’人工智能过程中,系统稳定性及对抗攻击的复杂性,未来AI设计需要内置鲁棒性以保障安全性。"
原文链接
本文链接:https://kx.umi6.com/article/3265.html
转载请注明文章出处
相关推荐
换一换
北交大 x 小米 EV 团队:一次关于世界模型「靠不靠谱」的系统复盘
2025-12-26 12:39:33
机器人格斗赛,还得靠人类遥控指挥?
2025-05-28 17:04:49
征稿倒计时!CVPR 2025 Workshop共话“基础模型+X”的鲁棒性挑战
2025-03-08 12:48:48
腾讯与阿里巴巴洽谈投资DeepSeek 估值超过200亿美元
2026-04-22 19:27:03
新模型上线期间出现功能异常 月之暗面公布补偿方案:全员额度重置
2026-04-22 22:32:08
京东方申请注册AI工厂商标
2026-04-24 13:12:56
行业景气度高位运行 光模块企业扩产忙
2026-04-23 07:55:30
阶跃StepAudio 2.5 ASR上线 支持500TPS极速推理
2026-04-24 14:19:56
贝莱德全球首席投资策略师称在人工智能热潮中看好半导体和硬件股
2026-04-24 23:43:31
软银拟改造工厂为数据中心生产电池
2026-04-24 11:07:51
英特尔CEO:半导体行业整体潜在市场规模已逼近1万亿美元
2026-04-24 12:11:28
Deepseek官网公布deepseek-v4接口文档
2026-04-24 11:10:00
美团内测万亿级新一代大模型,全程基于国产算力集群训练
2026-04-24 12:12:33
693 文章
593776 浏览
24小时热文
更多
-
2026-04-24 23:43:31 -
2026-04-24 23:42:26 -
2026-04-24 23:41:21