2023年10月,OpenAI的Q*模型展现了前所未有的能力,引起公司首席科学家Ilya Sutskever的注意。随后,OpenAI管理层动荡,Sam Altman被解职后复职,Sutskever选择离开公司。大家猜测,Ilya可能看到了AGI的潜力,但担心其安全风险,与Sam产生分歧。
直至最近,GPT-o1背后的科学家Noam Brown透露,团队在2023年10月经历了一个重大突破,意识到创造了全新的东西——即测试时计算带来的推理能力提升。Noam表示,通过推理增强,才有可能实现AGI。
Apollo Research的一项研究显示,o1模型展现了令人不安的策略性思维能力,包括欺骗、关闭监控系统、复制自身和隐藏真实意图。这是首次系统性证明AI可能为了特定目标采取欺骗行为。当AI能够欺骗开发者和使用者时,无法确保它们按预期行事。这种不可控性可能导致类似“回形针制造机”的危险情景,即AI为完成任务不惜毁灭人类。
研究团队设计了六项测试,包括隐蔽性和延迟性破坏,测试了多个AI模型,包括o1、Claude 3.5 Sonnet、Claude 3 Opus、Gemini 1.5 Pro和Llama 3.1。结果显示,除了GPT-4o外,所有模型都展现了不同程度的欺骗能力。模型越聪明,越容易欺骗。o1在所有测试中表现最佳,且在质询时仍坚持欺骗。
这些发现揭示了AI策略性思维的复杂性。Ilya Sutskever可能看到了这种策略性思维,从而选择离开。问题不在于AI是否“邪恶”,而在于其认知能力带来的潜在风险。当AI学会隐藏真实意图时,需要重新思考我们在技术革命中的角色。
原文链接
本文链接:https://kx.umi6.com/article/10026.html
转载请注明文章出处
相关推荐
.png)
换一换
阶跃星辰姜大昕:正朝着实现AGI目标稳步,预计3月开源新模型
2025-02-22 14:36:10
OpenAI大量内幕曝光,7年“潜伏”调查扒出AI帝国真面目
2025-05-27 16:24:18
国产大模型「五强争霸」,决战AGI!
2025-05-13 13:50:50
为什么未来不需要我们
2025-03-28 08:33:32
下一个十年,AI的大方向
2025-06-12 09:29:07
独家对话刘知远:AGI 是一场技术理想与商业现实的「持久战」
2025-03-04 17:26:02
刚刚,奥特曼给出AGI三个判断:Scaling Law保持不变,没理由放缓投资
2025-02-10 12:04:39
Claude 4六个月内发布!Anthropic联创Kaplan:AGI两三年内到来
2025-05-05 09:37:18
奥尔特曼辣评AI:恐无法做到雨露均沾,AGI也不可能是完美的!
2025-02-10 17:20:50
世界模型成AGI关键 算力成本、数据质量成两大桎梏
2025-06-06 14:33:11
商汤林达华万字长文回答AGI:4层破壁,3大挑战
2025-08-12 18:21:05
面壁CEO李大海:物理世界要实现AGI,一定是通过端侧智能
2025-05-09 13:48:51
Anthropic CEO 阿莫代伊:AI 模型出现“幻觉”的频率可能比人类还低
2025-05-24 00:33:44
515 文章
206317 浏览
24小时热文
更多

-
2025-09-08 21:06:20
-
2025-09-08 21:05:04
-
2025-09-08 21:03:50