2025年9月12日,Eliezer Yudkowsky因提出“人工智能有99.5%的可能性会杀死你”而引发关注。这位MIRI创始人、OpenAI与DeepMind的早期推动者,同时也是《哈利·波特》同人文作者,以极端观点闻名硅谷。Yudkowsky认为,超级智能AI的发展将导致人类边缘化甚至灭绝,现有AI对齐技术无法应对潜在风险。他呼吁关闭包括Anthropic、OpenAI在内的科技公司,批评其‘炼金术式’开发模式。尽管其末日论备受争议,但其思想深刻影响了硅谷,包括奥特曼和马斯克等大佬。他还通过理性主义作品如《哈利·波特与理性之道》启发年轻一代,强调科学与逻辑的重要性。
原文链接
本文链接:https://kx.umi6.com/article/25174.html
转载请注明文章出处
相关推荐
.png)
换一换
OpenAI、微软、智谱AI等全球16家公司共同签署前沿人工智能安全承诺
2024-05-24 16:17:03
《人工智能安全治理框架》发布 促进行业安全有序发展
2024-09-10 19:50:38
扎克伯格:超级智能已经近在眼前,Meta 要让每个人都用上
2025-07-30 22:54:31
阿尔特曼称 OpenAI 目标开始转向“超级智能”:有望大幅提升财富和繁荣
2025-01-06 14:30:55
AI,人类豢养的老虎,还是智慧之子?
2025-07-27 16:04:35
OpenAI被曝训出GPT-5,但雪藏
2025-01-17 21:24:08
奥尔特曼再发万字“小作文”:ChatGPT周活跃用户已超3亿,OpenAI将目标转向超级智能
2025-01-06 11:22:38
AGI 这个词“过时”了?硅谷大佬开始重金押注“超级智能”
2025-07-06 20:17:59
AI人才争夺战加大薪资差距
2025-08-29 17:41:34
AI正在接近「叹息之墙」
2025-07-07 09:26:48
Ilya宣判:预训练即将终结!NeurIPS现场沸腾
2024-12-14 12:44:30
对话牛津大学未来学家:假如AI有了欲望,世界会怎样?
2025-01-13 22:01:12
OpenAI GPT-5发布:模型能力全面“屠榜”,构建“超级智能”第一步
2025-08-08 04:02:48
477 文章
188664 浏览
24小时热文
更多

-
2025-09-13 19:29:41
-
2025-09-13 18:29:27
-
2025-09-13 17:31:11