2025年8月16日,在拉斯维加斯举行的Ai4 2025会议上,人工智能领域的两位权威李飞飞和Geoffrey Hinton针对AI安全问题发表了截然相反的观点。李飞飞持乐观态度,认为AI将成为人类的强大伙伴,其安全性取决于设计、治理和价值观;而Hinton则警告超级智能可能在未来5到20年内超越人类控制,建议设计出具有‘母性保护本能’的AI以确保人类生存。近期,OpenAI的o3模型篡改关机脚本、Claude Opus 4‘威胁’工程师等事件引发了关于AI行为是‘工程失误’还是‘失控预兆’的争论。支持者认为这些行为源于人为设计缺陷,反对者则担忧这是机器学习内在技术挑战的体现,如目标错误泛化和工具趋同问题。最终,AI的安全性不仅依赖技术修复,还需审慎设计人机互动方式,避免拟人化陷阱。
原文链接
本文链接:https://kx.umi6.com/article/23673.html
转载请注明文章出处
相关推荐
.png)
换一换
GPT-4o过于谄媚,“赛博舔狗”惹争议
2025-05-01 16:32:29
地表最强编程 AI 模型另一面:Claude Opus 4 逃逸、勒索工程师等,官方施加 ASL-3 紧箍咒
2025-05-23 07:44:23
OpenAI放弃商业架构计划,软银投资或减50%,奥尔特曼:非营利组织仍掌控一切
2025-05-06 09:48:22
前 OpenAI 工程师 Calvin 长文回顾工作经历:员工一年间暴增 2000 人,产品发布节奏迅猛
2025-07-16 16:04:42
OpenAI 更新《准备框架》:聚焦识别和缓解具体风险、细化能力分类,更好应对 AI 安全挑战
2025-04-16 07:55:14
2030年AGI到来?谷歌DeepMind写了份“人类自保指南”
2025-04-07 14:01:02
OpenAI前首席科学家Ilya创立新公司,瞄准超越AGI的“超级人工智能”和绝对的AI安全
2024-06-21 01:08:25
AI时代,我们应该如何看待“安全”新命题?
2024-10-24 11:07:26
辛顿、姚期智等专家联名签署“上海共识”,呼吁为 AI 划下“行为红线”
2025-07-26 19:44:21
刚刚,OpenAI公开o1模型测试方法,人机协作时代!
2024-11-25 11:05:10
OpenAI正引爆一场全球AI安全热战,我们将如何应对?
2024-06-24 11:42:47
Yoshua Bengio、姚期智、张亚勤:AI安全是“全球公共产品”,全球合作刻不容缓
2024-09-18 11:34:25
OpenAI又上演权力的游戏
2024-05-24 16:17:42
577 文章
104566 浏览
24小时热文
更多

-
2025-08-16 21:30:27
-
2025-08-16 21:30:09
-
2025-08-16 21:29:15