
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年9月12日,Eliezer Yudkowsky因提出“人工智能有99.5%的可能性会杀死你”而引发关注。这位MIRI创始人、OpenAI与DeepMind的早期推动者,同时也是《哈利·波特》同人文作者,以极端观点闻名硅谷。Yudkowsky认为,超级智能AI的发展将导致人类边缘化甚至灭绝,现有AI对齐技术无法应对潜在风险。他呼吁关闭包括Anthropic、OpenAI在内的科技公司,批评其‘炼金术式’开发模式。尽管其末日论备受争议,但其思想深刻影响了硅谷,包括奥特曼和马斯克等大佬。他还通过理性主义作品如《哈利·波特与理性之道》启发年轻一代,强调科学与逻辑的重要性。
原文链接
加载更多

暂无内容