4月12日消息,金融时报报道显示,OpenAI大幅缩减最新大型语言模型(LLM)的安全测试时间,从以往的数月压缩至几天。这一变化引发担忧,因竞争压力导致安全评估不足。此前GPT-4的安全测试历时六个月,而即将发布的o3模型测试时间不足一周。多位知情人士指出,缩短测试周期可能忽略潜在风险,例如某些危险能力可能未被及时发现。目前全球缺乏统一的AI安全测试标准,尽管欧盟《AI法案》即将出台,要求严格测试强模型,但当前行业仍存在监管空白。前OpenAI安全研究员批评称,未兑现测试承诺或需向公众解释。此外,OpenAI的安全测试多基于早期“检查点”,而非最终发布模型,其安全性通过自动化测试保障,但前技术人员质疑此举是否足够严谨。
原文链接
本文链接:https://kx.umi6.com/article/17060.html
转载请注明文章出处
相关推荐
.png)
换一换
告别公式,腾讯元宝已支持通过自然语言分析复杂 Excel
2025-03-21 16:31:34
OpenAI玩崩了,GPT-4o更新后变马屁精差评如潮
2025-04-30 20:00:48
隐藏的AI大赢家?
2024-05-24 19:15:54
434 文章
64404 浏览
24小时热文
更多

-
2025-07-19 12:53:03
-
2025-07-19 12:51:53
-
2025-07-19 11:52:20