"近期,研究揭示了即使在围棋AI如KataGo和聊天机器人如ChatGPT的大模型中,对抗性攻击可能导致它们的‘超人’能力瓦解。MIT和FAR AI团队在arXiv预印本上发布的论文指出,构建始终超越人类的、高度鲁棒的AI系统可能比预期更为艰难。研究者通过对抗性训练展示了围棋AI在防御策略下仍存在显著漏洞,且现有防御措施效果有限。这强调了在实现‘超人’人工智能过程中,系统稳定性及对抗攻击的复杂性,未来AI设计需要内置鲁棒性以保障安全性。"
原文链接
本文链接:https://kx.umi6.com/article/3265.html
转载请注明文章出处
相关推荐
换一换
北交大 x 小米 EV 团队:一次关于世界模型「靠不靠谱」的系统复盘
2025-12-26 12:39:33
征稿倒计时!CVPR 2025 Workshop共话“基础模型+X”的鲁棒性挑战
2025-03-08 12:48:48
机器人格斗赛,还得靠人类遥控指挥?
2025-05-28 17:04:49
击败人类又怎样?“超人”AI简直不堪一击?研究发现:ChatGPT等大模型也不行
2024-07-12 21:27:29
粤芯半导体年产48万片晶圆生产线启动 总投资252亿元
2026-01-22 22:15:16
OpenAI已建立人形机器人实验室 启动以来规模扩大四倍多
2026-01-22 21:11:56
Mobileye势头强劲,2025财年全年营收同比增长15%
2026-01-23 11:47:43
摩尔线程携手硅基流动实现DeepSeek-V3大模型高性能推理
2026-01-21 20:31:18
贝莱德CEO称人工智能领域不存在泡沫
2026-01-22 23:18:34
凸显新型国际财经媒体优势 界面财联社旗下财跃星辰AI决策系统入选上海开源典型案例
2026-01-22 12:52:54
成都国资开年「闪击战」背后的产业野望
2026-01-21 20:24:37
白宫加密与AI顾问 :美国传统银行与加密行业最终将融合为数字资产行业
2026-01-22 16:00:45
超过三分之二的投资管理机构将AI广泛应用于前台业务支持
2026-01-21 19:23:09
616 文章
416402 浏览
24小时热文
更多
-
2026-01-23 17:04:25 -
2026-01-23 16:04:10 -
2026-01-23 15:02:58