12月3日,非营利机构生命未来研究所发布的《AI安全指数》显示,Anthropic、OpenAI、xAI、Meta等主要人工智能公司的安全治理未达全球标准。独立专家评估指出,尽管这些企业正竞相开发“超级智能”,但均未制定完善的策略来控制先进AI系统,存在安全隐患。这一研究揭示了头部AI企业在安全监管方面的不足,引发对AI技术快速发展的担忧。
原文链接
本文链接:https://kx.umi6.com/article/29613.html
转载请注明文章出处
相关推荐
换一换
OpenAI CEO称美国不应为AI企业提供救助
2025-11-07 17:03:30
Transformer作者爆料GPT-5.1内幕!OpenAI内部命名规则变乱了
2025-11-30 14:13:24
OpenAI:预计ChatGPT五年内付费用户将达2.2亿
2025-11-26 15:50:50
OpenAI:第三方 Mixpanel 发生网安事件,部分 API 用户数据可能泄露
2025-11-27 15:45:27
又买一家:OpenAI 将收购 Neptune,强化 AI 模型训练监控能力
2025-12-04 09:11:05
ChatGPT 诞生三年,OpenAI 还未取得绝对领先
2025-12-04 12:18:49
萨姆・奥尔特曼驳斥 OpenAI 财务危机说,称未来会上市让唱衰者爆仓
2025-11-05 22:25:30
OpenAI的「红色警报」
2025-12-03 14:21:25
AI投资须政府兜底? OpenAI奥尔特曼紧急“灭火”:2030年营收达数千亿美元
2025-11-07 09:43:08
出师未捷:奥尔特曼上诉失败,OpenAI 首款 AI 硬件恐因侵权被迫改名
2025-12-05 09:15:40
OpenAI 投了一家初创公司 Red Queen Bio,旨在阻止 AI 制造生物武器
2025-11-14 16:05:54
OpenAI正在大举从苹果硬件工程团队挖人
2025-11-24 15:05:57
OpenAI 推出 GPT-5-Codex-Mini:“经济高效型”AI 编程模型
2025-11-08 16:47:26
601 文章
380400 浏览
24小时热文
更多
-
2025-12-07 20:45:46 -
2025-12-07 18:40:26 -
2025-12-07 18:39:34