标题:MIT教授提出“康普顿常数”,AGI失控率>90%?
你是否想过,人类开发AGI时,AI失控的几率有多大?研究显示,人类失去对地球控制的概率可能超过90%。失控的核心在于,更智能的AI可能被较弱的AI甚至人类控制。
MIT教授Max Tegmark和Joshua Engels通过量化分析发现,较弱的AI和人类可通过嵌套“可扩展监督”(NSO)控制更强大的AI。在理想情况下,成功监督的概率仅为52%,意味着一半的可能性会出现失控。随着AI能力接近AGI,失控率将进一步上升。
Max Tegmark提出了一个量化指标“康普顿常数”,即人类失去对地球控制的概率大于90%。论文通过四个真实监管场景验证了这一理论,包括“黑手党”、“辩论”、“后门代码”和“战争游戏”。
研究将监督建模为“弱监管者”(Guard)与“强对抗者”(Houdini)的博弈,并提出监督与欺骗的表现随通用模型智能变化呈现双ReLU函数形状。此外,研究探讨了如何优化设计现实世界的嵌套可扩展监管系统。
通过模拟和实验,研究发现:嵌套可扩展监督(NSO)能有效监督更智能的AI;胜率随监管者与对抗者间的智能差距变化;更大的智能差距使多级监督更有价值;在某些游戏中,一步监督可能最优;随着智能差距增大,有效监督的概率下降。
这项研究强调了开发有效监督理论的重要性,并指出未来将应用于更复杂的现实场景。正如核弹研发时的风险计算,今天的AGI竞赛中,失控风险可能高达90%以上。
原文链接
本文链接:https://kx.umi6.com/article/18127.html
转载请注明文章出处
相关推荐
换一换
小扎抢人抢到了Ilya头上:收购不成,转头挖走CEO
2025-06-20 11:58:43
OpenAI的“独立战争”
2025-07-04 19:48:46
OpenAI的「独立战争」
2025-07-05 11:58:16
763亿港元,大模型公司最大规模IPO!MiniMax登陆港交所,开盘前大涨50%
2026-01-09 11:08:29
OpenAl为何“情迷”变现
2025-10-19 12:48:56
消息称盛大创始人陈天桥联手代季峰进军 AGI,拿出一半 AI 企业利润鼎力支持
2025-08-08 09:08:48
荣耀CEO李健挥旗“开路”:开放共生 众木成林 让AI走进生活
2025-06-19 10:48:23
蓝色巨人IBM看空AI:8万亿美元回不了本 AGI可能性0-1%
2025-12-03 20:41:46
NVIDIA再快也不行!科学家示警AGI阻碍在算力:已接近物理极限
2025-12-15 15:46:39
张亚勤院士:基础大模型最终不超过10个,十年后机器人比人多 | MEET2026
2025-12-11 19:06:41
OpenAI的00后“叛徒”正在碾压华尔街“老江湖”
2025-09-06 16:36:53
贴脸开大,OpenAI 研究员当面嘲讽马斯克为 xAI 提出的 AGI 愿景
2025-10-22 08:41:17
消息称微软与 OpenAI 正进行深入谈判:确保 AGI 时代技术合作
2025-07-29 21:35:30
668 文章
434215 浏览
24小时热文
更多
-
2026-01-24 00:23:19 -
2026-01-23 22:19:57 -
2026-01-23 22:18:50