
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
"近期,研究揭示了即使在围棋AI如KataGo和聊天机器人如ChatGPT的大模型中,对抗性攻击可能导致它们的‘超人’能力瓦解。MIT和FAR AI团队在arXiv预印本上发布的论文指出,构建始终超越人类的、高度鲁棒的AI系统可能比预期更为艰难。研究者通过对抗性训练展示了围棋AI在防御策略下仍存在显著漏洞,且现有防御措施效果有限。这强调了在实现‘超人’人工智能过程中,系统稳定性及对抗攻击的复杂性,未来AI设计需要内置鲁棒性以保障安全性。"
原文链接
加载更多

暂无内容