麻省理工学院教授马克斯·泰格马克警告,高度发达的人工智能有九成可能带来生存威胁,呼吁AI公司量化产品失控风险。他参考1945年美国“三位一体”核试验前的计算方式,建议借鉴“康普顿常数”概念评估强AI失控概率。泰格马克强调,仅凭主观信心不足以应对AI安全问题,需拿出具体数据证明可控性,并建议多家公司联合计算以达成共识,推动全球AI安全机制建设。此前,泰格马克参与的“未来生命研究所”曾发布公开信,呼吁暂停开发更强大的AI系统,该信已获超3.3万人签名,包括埃隆·马斯克和史蒂夫·沃兹尼亚克。
原文链接
本文链接:https://kx.umi6.com/article/18477.html
转载请注明文章出处
相关推荐
换一换
OpenAI放弃商业架构计划,软银投资或减50%,奥尔特曼:非营利组织仍掌控一切
2025-05-06 09:48:22
AI时代,我们应该如何看待“安全”新命题?
2024-10-24 11:07:26
微软高管誓言:若AI开始威胁人类 将立刻停止相关研发工作
2025-12-12 18:02:05
OpenAI AI 安全策略遭质疑,前高管批评其“篡改公司历史”
2025-03-07 18:01:46
图灵奖得主 Bengio 再创业:构建下一代 AI 系统,启动资金已筹集 3000 万美元
2025-06-04 16:28:05
奥尔特曼:OpenAI 明年 9 月将胜任“实习研究助理”,力争比人类更快取得新发现
2025-10-29 08:39:14
顶流AI,人设崩了!6小时被攻破,泄露高危品指南,惨遭网友举报
2025-06-09 11:24:31
消息称 Meta CEO 扎克伯格亲自组建 AI 团队,目标实现“超级智能”
2025-06-11 10:09:21
Meta 重组 AI 部门成立 MSL:未来几年投入数千亿美元,瞄准超级智能
2025-07-01 13:54:43
图灵奖得主Bengio再创业
2025-06-04 17:31:09
微软宣布组建超级智能团队,自研 AI 模型摆脱对 OpenAI 的依赖
2025-11-06 23:18:30
超800名科技领袖联合呼吁:停止研发超级智能 可能导致人类灭绝
2025-10-23 00:54:02
OpenAI GPT-5发布:模型能力全面“屠榜”,构建“超级智能”第一步
2025-08-08 04:02:48
638 文章
440012 浏览
24小时热文
更多
-
2026-01-24 00:23:19 -
2026-01-23 22:19:57 -
2026-01-23 22:18:50