2025年9月12日,Eliezer Yudkowsky因提出“人工智能有99.5%的可能性会杀死你”而引发关注。这位MIRI创始人、OpenAI与DeepMind的早期推动者,同时也是《哈利·波特》同人文作者,以极端观点闻名硅谷。Yudkowsky认为,超级智能AI的发展将导致人类边缘化甚至灭绝,现有AI对齐技术无法应对潜在风险。他呼吁关闭包括Anthropic、OpenAI在内的科技公司,批评其‘炼金术式’开发模式。尽管其末日论备受争议,但其思想深刻影响了硅谷,包括奥特曼和马斯克等大佬。他还通过理性主义作品如《哈利·波特与理性之道》启发年轻一代,强调科学与逻辑的重要性。
原文链接
本文链接:https://kx.umi6.com/article/25174.html
转载请注明文章出处
相关推荐
换一换
麻省理工学院教授呼吁 AI 公司量化产品失控风险:像首次核试验之前那样
2025-05-12 18:37:32
跳槽昔日对手家!OpenAI前安全主管加入了Anthropic
2024-05-29 11:21:21
AI,人类豢养的老虎,还是智慧之子?
2025-07-27 16:04:35
科技巨头Meta重组AI团队 战略涵盖短期到长期全线任务
2025-08-20 03:07:39
对话牛津大学未来学家:假如AI有了欲望,世界会怎样?
2025-01-13 22:01:12
800 多位世界名流联名呼吁禁止开发超级智能,含 AI 教父辛顿、百度前总裁张亚勤等
2025-10-22 14:46:13
黑客能让 AI 发辞职信?OpenAI 承认 Atlas 浏览器提示词注入攻击难以根治
2025-12-23 07:24:44
OpenAI路线遭质疑,Meta研究员:根本无法构建超级智能
2025-06-20 21:05:08
《人工智能安全治理框架》发布 促进行业安全有序发展
2024-09-10 19:50:38
马斯克:AI海啸巨浪袭来,DOGE就是沙滩垃圾
2025-06-21 14:12:57
OpenAI GPT-5发布:模型能力全面“屠榜”,构建“超级智能”第一步
2025-08-08 04:02:48
OpenAI 奥尔特曼评硅谷 AI 人才争夺战:不必只盯着明星工程师,可用的人远多于想象
2025-08-09 15:32:37
杰弗里·辛顿在中国上海的一天
2025-07-26 20:46:11
659 文章
519424 浏览
24小时热文
更多
-
2026-03-10 16:39:18 -
2026-03-10 16:38:21 -
2026-03-10 16:37:05