7月25日,杰弗里・辛顿、姚期智等20余名专家签署的《AI安全国际对话上海共识》正式发布。共识指出,AI系统可能迅速超越人类智能,存在失控风险,或导致灾难性后果。为应对这一挑战,共识呼吁采取三项关键行动:要求开发者提供安全保障、确立全球性行为红线、投资安全AI研究。同时建议建立具备技术能力和国际包容性的协调机构,推动标准化评估与验证方法。在2025世界AI大会上,姚期智强调,AI发展集中在少数国家和公司,如何避免数字鸿沟问题值得深思。
原文链接
本文链接:https://kx.umi6.com/article/22439.html
转载请注明文章出处
相关推荐
换一换
Meta 开源 LlamaFirewall 防护工具,助力构建安全 AI 智能体
2025-05-09 14:52:36
刚刚,OpenAI找到控制AI善恶的开关
2025-06-19 14:48:23
2030年AGI到来?谷歌DeepMind写了份“人类自保指南”
2025-04-07 14:01:02
Ilya出走记:SSI的超级安全革命
2024-06-21 18:43:39
OpenAI不能拯救人类,llya新神归位
2024-06-20 19:06:13
“AI教父”本吉奥再出山:宣布开发Scientist AI 试图为AI造“护栏”
2025-06-04 16:30:14
前 OpenAI 工程师 Calvin 长文回顾工作经历:员工一年间暴增 2000 人,产品发布节奏迅猛
2025-07-16 16:04:42
前OpenAI大佬单干仅8个月:这匹AI黑马估值有望飙至300亿美元
2025-02-18 07:06:33
又一华人高管离职,OpenAI总裁提前归队
2024-11-18 10:11:11
OpenAI正引爆一场全球AI安全热战,我们将如何应对?
2024-06-24 11:42:47
顶流AI,人设崩了!6小时被攻破,泄露高危品指南,惨遭网友举报
2025-06-09 11:24:31
杰弗里·辛顿在中国上海的一天
2025-07-26 20:46:11
刚刚,OpenAI公开o1模型测试方法,人机协作时代!
2024-11-25 11:05:10
613 文章
357300 浏览
24小时热文
更多
-
2025-12-08 22:52:38 -
2025-12-08 22:51:57 -
2025-12-08 22:51:33