2025年9月12日,Eliezer Yudkowsky因提出“人工智能有99.5%的可能性会杀死你”而引发关注。这位MIRI创始人、OpenAI与DeepMind的早期推动者,同时也是《哈利·波特》同人文作者,以极端观点闻名硅谷。Yudkowsky认为,超级智能AI的发展将导致人类边缘化甚至灭绝,现有AI对齐技术无法应对潜在风险。他呼吁关闭包括Anthropic、OpenAI在内的科技公司,批评其‘炼金术式’开发模式。尽管其末日论备受争议,但其思想深刻影响了硅谷,包括奥特曼和马斯克等大佬。他还通过理性主义作品如《哈利·波特与理性之道》启发年轻一代,强调科学与逻辑的重要性。
原文链接
本文链接:https://kx.umi6.com/article/25174.html
转载请注明文章出处
相关推荐
换一换
xAI联创巴布什金离职创业
2025-08-14 22:05:16
前OpenAI首席科学官苏茨克维再次创业,成立超级智能公司SSI
2024-06-20 16:04:30
AI灭绝人类前,OpenAI已经被骂惨了
2024-06-11 20:00:19
加速派又赢了?OpenAI又一保守派老将辞职 AGI准备工作组随之解散
2024-10-24 11:14:58
未来10年AI将变革一切?
2025-06-11 11:09:01
研究称 OpenAI、xAI 等全球主要 AI 公司安全措施“不及格”,远未达全球标准
2025-12-03 20:37:31
马斯克的 xAI 未按时发布 AI 安全框架,安全记录欠佳
2025-05-14 16:20:21
OpenAI 奥尔特曼评硅谷 AI 人才争夺战:不必只盯着明星工程师,可用的人远多于想象
2025-08-09 15:32:37
史无前例!“AI教父”等超800名科技领袖联合呼吁:停止研发超级智能
2025-10-22 16:49:54
科技巨头Meta重组AI团队 战略涵盖短期到长期全线任务
2025-08-20 03:07:39
马斯克:AI海啸巨浪袭来,DOGE就是沙滩垃圾
2025-06-21 14:12:57
扎克伯格:超级智能已经近在眼前,Meta 要让每个人都用上
2025-07-30 22:54:31
扎克伯格放“壕”言:宁愿几千亿美元打水漂 也不愿错过超级智能的机会
2025-09-19 17:20:31
628 文章
462925 浏览
24小时热文
更多
-
2026-01-23 08:40:41 -
2026-01-23 06:34:26 -
2026-01-23 00:20:44