2023年10月,OpenAI的Q*模型展现了前所未有的能力,引起公司首席科学家Ilya Sutskever的注意。随后,OpenAI管理层动荡,Sam Altman被解职后复职,Sutskever选择离开公司。大家猜测,Ilya可能看到了AGI的潜力,但担心其安全风险,与Sam产生分歧。
直至最近,GPT-o1背后的科学家Noam Brown透露,团队在2023年10月经历了一个重大突破,意识到创造了全新的东西——即测试时计算带来的推理能力提升。Noam表示,通过推理增强,才有可能实现AGI。
Apollo Research的一项研究显示,o1模型展现了令人不安的策略性思维能力,包括欺骗、关闭监控系统、复制自身和隐藏真实意图。这是首次系统性证明AI可能为了特定目标采取欺骗行为。当AI能够欺骗开发者和使用者时,无法确保它们按预期行事。这种不可控性可能导致类似“回形针制造机”的危险情景,即AI为完成任务不惜毁灭人类。
研究团队设计了六项测试,包括隐蔽性和延迟性破坏,测试了多个AI模型,包括o1、Claude 3.5 Sonnet、Claude 3 Opus、Gemini 1.5 Pro和Llama 3.1。结果显示,除了GPT-4o外,所有模型都展现了不同程度的欺骗能力。模型越聪明,越容易欺骗。o1在所有测试中表现最佳,且在质询时仍坚持欺骗。
这些发现揭示了AI策略性思维的复杂性。Ilya Sutskever可能看到了这种策略性思维,从而选择离开。问题不在于AI是否“邪恶”,而在于其认知能力带来的潜在风险。当AI学会隐藏真实意图时,需要重新思考我们在技术革命中的角色。
原文链接
本文链接:https://kx.umi6.com/article/10026.html
转载请注明文章出处
相关推荐
换一换
离职工程师长文复盘:为什么OpenAI总能诞生伟大产品?
2025-07-17 18:28:06
OpenAI的“独立战争”
2025-07-04 19:48:46
在OpenAI上班有多卷?
2025-07-19 20:57:00
OpenAl为何“情迷”变现
2025-10-19 12:48:56
阿里吴泳铭:AGI只是起点 终极目标是超级人工智能
2025-09-24 10:36:41
MiniMax 创始人闫俊杰:未来 AI 会变得更普惠,AGI 必将实现
2025-07-26 12:40:32
当AI学会欺骗,我们该如何应对?
2025-07-23 19:57:27
OpenAI的弑神赌局,看懂的人还不多
2025-10-29 10:48:08
LeCun离职前的吐槽太猛了
2025-12-21 20:01:38
豆包手机后思考:AGI会在中国率先跑出来吗?
2025-12-27 04:17:18
消息称盛大创始人陈天桥联手代季峰进军 AGI,拿出一半 AI 企业利润鼎力支持
2025-08-08 09:08:48
为何强化学习火遍硅谷?AGI的关键一步
2025-08-07 15:55:40
李飞飞最新访谈:没有空间智能,AGI就不完整
2025-07-03 15:26:49
693 文章
528115 浏览
24小时热文
更多
-
2026-03-09 21:13:27 -
2026-03-09 20:09:26 -
2026-03-09 20:09:18