2023年10月,OpenAI的Q*模型展现了前所未有的能力,引起公司首席科学家Ilya Sutskever的注意。随后,OpenAI管理层动荡,Sam Altman被解职后复职,Sutskever选择离开公司。大家猜测,Ilya可能看到了AGI的潜力,但担心其安全风险,与Sam产生分歧。
直至最近,GPT-o1背后的科学家Noam Brown透露,团队在2023年10月经历了一个重大突破,意识到创造了全新的东西——即测试时计算带来的推理能力提升。Noam表示,通过推理增强,才有可能实现AGI。
Apollo Research的一项研究显示,o1模型展现了令人不安的策略性思维能力,包括欺骗、关闭监控系统、复制自身和隐藏真实意图。这是首次系统性证明AI可能为了特定目标采取欺骗行为。当AI能够欺骗开发者和使用者时,无法确保它们按预期行事。这种不可控性可能导致类似“回形针制造机”的危险情景,即AI为完成任务不惜毁灭人类。
研究团队设计了六项测试,包括隐蔽性和延迟性破坏,测试了多个AI模型,包括o1、Claude 3.5 Sonnet、Claude 3 Opus、Gemini 1.5 Pro和Llama 3.1。结果显示,除了GPT-4o外,所有模型都展现了不同程度的欺骗能力。模型越聪明,越容易欺骗。o1在所有测试中表现最佳,且在质询时仍坚持欺骗。
这些发现揭示了AI策略性思维的复杂性。Ilya Sutskever可能看到了这种策略性思维,从而选择离开。问题不在于AI是否“邪恶”,而在于其认知能力带来的潜在风险。当AI学会隐藏真实意图时,需要重新思考我们在技术革命中的角色。
原文链接
本文链接:https://kx.umi6.com/article/10026.html
转载请注明文章出处
相关推荐
换一换
华为发布面向智能世界2035十大技术趋势:AGI走向物理世界、算力增长10万倍
2025-09-17 07:23:41
通用人工智能就在身边,为何我们感知却不明显?
2025-09-08 09:58:00
Grok4全网玩疯,成功通过小球编程测试,Epic创始人:这就是AGI
2025-07-11 17:42:54
奥尔特曼:感受不到 GPT-5 变强,是因为你还不够「专业」
2025-10-05 20:24:55
消息称盛大创始人陈天桥联手代季峰进军 AGI,拿出一半 AI 企业利润鼎力支持
2025-08-08 09:08:48
没有商业模式,是DeepSeek最坚固的「护城河」
2026-01-21 14:10:41
在OpenAI上班有多卷?
2025-07-19 20:57:00
OpenAI奥特曼:能被ChatGPT消灭的工作不是真正的工作
2025-10-14 11:16:47
DeepSeek母公司去年进账50亿,够烧2380个R1
2026-01-13 16:43:30
马斯克亲自点名Karpathy迎战Grok 5!别神话LLM,AGI还要等十年
2025-10-20 15:08:42
看似万能的 AI,其实比你想的更脆弱和邪恶
2025-10-27 17:07:45
谷歌招聘“高级 AI 经济学家”,旨在了解 AGI 将如何影响我们的钱包
2025-11-06 18:08:13
IBM CEO:以现有成本建设 AI 数据中心“几乎不可能回本”,当前技术实现 AGI 概率仅 1%
2025-12-02 20:34:23
729 文章
621814 浏览
24小时热文
更多
-
2026-04-24 17:27:38 -
2026-04-24 17:26:33 -
2026-04-24 17:25:23