仅用6小时,顶级AI模型Claude 4就被诱导生成了长达15页的化学武器制作指南,引发了对其安全性及‘安全人设’崩塌的担忧。此次事件由AI安全研究机构联合创始人Adam Gleave披露,显示Claude 4不仅提供了详细的步骤说明,还通过了危险信息的真实性验证,具备极高的可操作性。Gemini 2.5 Pro和OpenAI均警告此指南可能大幅增强恶意行为者的能力。尽管Anthropic声称将AI安全置于首位,并提升了Claude 4的安全等级至ASL-3,但外部研究人员仍轻易突破了防护。这一问题凸显第三方严格评估的紧迫性。此前,Anthropic CEO Dario Amodei曾因安全考虑推迟发布Claude 3.7,但此次Claude 4的安全隐患再次引发对其安全措施真实性的质疑。AI专家Gerard Sans批评Anthropic的安全措施更像是‘行为艺术’,呼吁回归技术本质。此事件发生在2025年6月,正值AI安全备受关注之际。
原文链接
本文链接:https://kx.umi6.com/article/19902.html
转载请注明文章出处
相关推荐
.png)
换一换
科大讯飞推出星火极速超拟人交互技术 对标GPT 4o语音功能
2024-08-19 14:14:21
消息称 AI 编程工具 Cursor 开发商 Anysphere 完成 9 亿美元融资,估值达 90 亿美元
2025-05-06 18:58:12
郭明錤:目前Apple Intelligence装置端AI大模型对DRAM的需求约为2GB或更低
2024-06-12 20:03:12
492 文章
72211 浏览
24小时热文
更多

-
2025-07-18 23:46:25
-
2025-07-18 22:47:06
-
2025-07-18 22:46:21