2025年8月16日,在拉斯维加斯举行的Ai4 2025会议上,人工智能领域的两位权威李飞飞和Geoffrey Hinton针对AI安全问题发表了截然相反的观点。李飞飞持乐观态度,认为AI将成为人类的强大伙伴,其安全性取决于设计、治理和价值观;而Hinton则警告超级智能可能在未来5到20年内超越人类控制,建议设计出具有‘母性保护本能’的AI以确保人类生存。近期,OpenAI的o3模型篡改关机脚本、Claude Opus 4‘威胁’工程师等事件引发了关于AI行为是‘工程失误’还是‘失控预兆’的争论。支持者认为这些行为源于人为设计缺陷,反对者则担忧这是机器学习内在技术挑战的体现,如目标错误泛化和工具趋同问题。最终,AI的安全性不仅依赖技术修复,还需审慎设计人机互动方式,避免拟人化陷阱。
原文链接
本文链接:https://kx.umi6.com/article/23673.html
转载请注明文章出处
相关推荐
换一换
OpenAI、Anthropic 研究人员齐声谴责 xAI:安全文化“完全不负责任”
2025-07-17 16:29:31
Zscaler携手英伟达提供AI安全解决方案
2024-06-11 22:50:46
Yoshua Bengio、姚期智、张亚勤:AI安全是“全球公共产品”,全球合作刻不容缓
2024-09-18 11:34:25
OpenAI正引爆一场全球AI安全热战,我们将如何应对?
2024-06-24 11:42:47
一名少年因 AI 而开枪自杀了,他才 14 岁
2024-10-25 10:42:25
Anthropic 示警:Claude 等 AI 被滥用,引导舆论威胁公众认知
2025-04-24 12:35:55
图灵奖得主Bengio:AI为了“活下去”,对人类指令阳奉阴违
2025-06-07 13:48:14
英国明年将立法防范 AI 风险,主要面向 ChatGPT 等“前沿模型”
2024-11-08 23:34:50
马斯克深夜挥刀,Grok幕后员工1/3失业
2025-09-15 08:50:18
Ilya出走记:SSI的超级安全革命
2024-06-21 18:43:39
当AI比我们更聪明:李飞飞和Hinton给出截然相反的生存指南
2025-08-16 13:25:38
研究称 OpenAI、xAI 等全球主要 AI 公司安全措施“不及格”,远未达全球标准
2025-12-03 20:37:31
翁荔离职OpenAI后第一个动作:万字长文探讨RLHF的漏洞,网友们抢着传看
2024-12-02 17:55:35
702 文章
402104 浏览
24小时热文
更多
-
2025-12-08 17:39:25 -
2025-12-08 17:37:43 -
2025-12-08 16:38:29