12月3日,非营利机构生命未来研究所发布的《AI安全指数》显示,Anthropic、OpenAI、xAI、Meta等主要人工智能公司的安全治理未达全球标准。独立专家评估指出,尽管这些企业正竞相开发“超级智能”,但均未制定完善的策略来控制先进AI系统,存在安全隐患。这一研究揭示了头部AI企业在安全监管方面的不足,引发对AI技术快速发展的担忧。
原文链接
本文链接:https://kx.umi6.com/article/29613.html
转载请注明文章出处
相关推荐
换一换
OpenAI关停Sora!25个月从封神到退场
2026-03-25 09:11:16
清华数学系大神跳槽OpenAI!曾主导SAM与Llama开发,Sora负责人:欢迎加入
2026-02-25 13:18:07
OpenAI:将自行承担“星际之门”项目能源费用,确保不会推高电价
2026-01-21 13:12:22
OpenAI为员工定制特殊版ChatGPT
2026-02-12 19:45:50
马斯克:若告赢OpenAI 上千亿美元收益全部捐给慈善机构
2026-03-17 17:54:30
OpenAI、谷歌员工以公开信反对五角大楼“技术收编”
2026-02-27 20:09:52
分析师:2030年前 OpenAI广告年收入有望达250亿美元
2026-01-20 15:14:56
没博士没论文,这些人杀进AI大厂
2026-01-27 03:49:22
光顾赚钱不搞研究,OpenAI元老级高管现离职潮,Mark Chen紧急回应
2026-02-04 15:48:22
解码OpenAI的2026
2026-02-04 02:07:37
1220亿美元!OpenAI创下史上最大单笔融资纪录
2026-04-01 09:34:49
OpenAI聘请OpenClaw AI智能体开发者斯坦伯格
2026-03-09 21:13:27
8500亿美元!OpenAI刷新AI公司估值纪录,领先第二名2.2倍
2026-02-20 18:37:00
694 文章
565151 浏览
24小时热文
更多
-
2026-04-24 16:22:09 -
2026-04-24 16:21:03 -
2026-04-24 16:19:57