"近期,研究揭示了即使在围棋AI如KataGo和聊天机器人如ChatGPT的大模型中,对抗性攻击可能导致它们的‘超人’能力瓦解。MIT和FAR AI团队在arXiv预印本上发布的论文指出,构建始终超越人类的、高度鲁棒的AI系统可能比预期更为艰难。研究者通过对抗性训练展示了围棋AI在防御策略下仍存在显著漏洞,且现有防御措施效果有限。这强调了在实现‘超人’人工智能过程中,系统稳定性及对抗攻击的复杂性,未来AI设计需要内置鲁棒性以保障安全性。"
原文链接
本文链接:https://kx.umi6.com/article/3265.html
转载请注明文章出处
相关推荐
.png)
换一换
机器人格斗赛,还得靠人类遥控指挥?
2025-05-28 17:04:49
击败人类又怎样?“超人”AI简直不堪一击?研究发现:ChatGPT等大模型也不行
2024-07-12 21:27:29
征稿倒计时!CVPR 2025 Workshop共话“基础模型+X”的鲁棒性挑战
2025-03-08 12:48:48
腾讯混元将发布原生多模态图像生成模型
2025-09-10 07:30:08
再度加码AI编程,腾讯发布AI CLI并宣布CodeBuddy IDE开启公测
2025-09-09 17:17:56
OpenAI布局韩国市场:希望与三星电子与SK海力士加强合作
2025-09-10 17:42:53
中科创达与吉利汽车集团、NVIDIA联合打造创新产品AIBOX
2025-09-10 08:33:06
江苏省通信管理局:适度超前规划建设信息通信基础设施 加快推进万兆光网试点
2025-09-09 14:25:18
我国已发布人工智能国家标准30项 15项人形机器人国标正在研制
2025-09-09 16:20:42
文心X1.1发布!这三大能力突出,一手实测在此
2025-09-09 21:21:16
爱诗科技完成6000万美元B轮融资,阿里巴巴领投
2025-09-10 09:31:39
青岛市海洋人工智能大模型产业联盟启动成立
2025-09-09 15:18:43
甲骨文埃里森财富单日暴增700亿美元,逼近马斯克首富宝座
2025-09-10 20:41:48
470 文章
174858 浏览
24小时热文
更多

-
2025-09-10 20:44:05
-
2025-09-10 20:42:57
-
2025-09-10 20:41:48