2025年9月12日,Eliezer Yudkowsky因提出“人工智能有99.5%的可能性会杀死你”而引发关注。这位MIRI创始人、OpenAI与DeepMind的早期推动者,同时也是《哈利·波特》同人文作者,以极端观点闻名硅谷。Yudkowsky认为,超级智能AI的发展将导致人类边缘化甚至灭绝,现有AI对齐技术无法应对潜在风险。他呼吁关闭包括Anthropic、OpenAI在内的科技公司,批评其‘炼金术式’开发模式。尽管其末日论备受争议,但其思想深刻影响了硅谷,包括奥特曼和马斯克等大佬。他还通过理性主义作品如《哈利·波特与理性之道》启发年轻一代,强调科学与逻辑的重要性。
原文链接
本文链接:https://kx.umi6.com/article/25174.html
转载请注明文章出处
相关推荐
换一换
扎克伯格放“壕”言:宁愿几千亿美元打水漂 也不愿错过超级智能的机会
2025-09-19 17:20:31
消息称 Meta CEO 扎克伯格亲自组建 AI 团队,目标实现“超级智能”
2025-06-11 10:09:21
AI,人类豢养的老虎,还是智慧之子?
2025-07-27 16:04:35
《中国人工智能安全承诺框架》发布
2025-07-30 18:49:52
AI人才争夺战加大薪资差距
2025-08-29 17:41:34
AI灭绝人类前,OpenAI已经被骂惨了
2024-06-11 20:00:19
OpenAI CEO拉响警报:世界恐正处“AI欺诈危机”的边缘!
2025-07-23 12:48:57
加速派又赢了?OpenAI又一保守派老将辞职
2024-10-24 13:13:03
黑客能让 AI 发辞职信?OpenAI 承认 Atlas 浏览器提示词注入攻击难以根治
2025-12-23 07:24:44
1 亿美元没白花,Meta 成功挖走三名 OpenAI 研究人员
2025-06-26 15:24:25
扎克伯格:超级智能已经近在眼前,Meta 要让每个人都用上
2025-07-30 22:54:31
英伟达投资千亿美元,OpenAI打造“超级智能”
2025-09-23 09:12:21
史无前例!“AI教父”等超800名科技领袖联合呼吁:停止研发超级智能
2025-10-22 16:49:54
703 文章
627232 浏览
24小时热文
更多
-
2026-04-24 19:29:38 -
2026-04-24 18:31:29 -
2026-04-24 18:30:24