12月3日,‘未来生命研究所’发布最新AI安全指数报告,指出Anthropic、OpenAI、xAI和Meta等主要AI公司的安全措施远未达到全球标准。独立专家评估显示,这些企业过于追逐超级智能,却缺乏可靠管控方案。报告背景是近期多起自杀和自残事件被关联到AI聊天机器人,引发社会对高阶AI系统的担忧。MIT教授Max Tegmark批评美国AI企业游说抵制强制性规范,且监管力度甚至不及餐馆。与此同时,科技巨头正投入巨资推动AI技术研发。今年10月,杰弗里・辛顿与约书亚・本吉奥等科学家呼吁暂停超级智能研发,直至确保安全路径明确。‘未来生命研究所’是非营利机构,长期关注AI对人类潜在威胁,曾获马斯克支持。
原文链接
本文链接:https://kx.umi6.com/article/29607.html
转载请注明文章出处
相关推荐
换一换
微软宣布组建超级智能团队,自研 AI 模型摆脱对 OpenAI 的依赖
2025-11-06 23:18:30
扎克伯格放“壕”言:宁愿几千亿美元打水漂 也不愿错过超级智能的机会
2025-09-19 17:20:31
OpenAI 奥尔特曼评硅谷 AI 人才争夺战:不必只盯着明星工程师,可用的人远多于想象
2025-08-09 15:32:37
2030年AGI到来?谷歌DeepMind写了份“人类自保指南”
2025-04-07 14:01:02
OpenAI 更新《准备框架》:聚焦识别和缓解具体风险、细化能力分类,更好应对 AI 安全挑战
2025-04-16 07:55:14
Meta 开源 LlamaFirewall 防护工具,助力构建安全 AI 智能体
2025-05-09 14:52:36
又一个谷歌不作恶式的形象崩塌 OpenAI删除AI安全造福人类承诺
2026-02-14 22:47:09
2025年,硅谷巨头要“超级智能”,不要AGI
2025-01-14 09:09:06
最新研究:OpenAI等头部AI企业的安全监管未达到全球标准
2025-12-03 21:44:07
Anthropic 开源 AI 安全分析框架 Petri,利用 Agent 代理人测试主流模型潜在不对齐风险
2025-10-14 14:15:51
超越AGI,阿里剑指“超级智能”
2025-09-24 18:49:07
阿尔特曼称 OpenAI 目标开始转向“超级智能”:有望大幅提升财富和繁荣
2025-01-06 14:30:55
图灵奖得主 Bengio 再创业:构建下一代 AI 系统,启动资金已筹集 3000 万美元
2025-06-04 16:28:05
688 文章
537679 浏览
24小时热文
更多
-
2026-04-24 16:22:09 -
2026-04-24 16:21:03 -
2026-04-24 16:19:57