2025年10月22日,包括苹果联合创始人沃茲尼克、维珍集团董事长布兰森、‘AI教父’班吉欧和辛顿在内的800多名科技领袖、科学家及公众人物签署公开声明,呼吁立即停止超级智能的开发。声明警告,超越人类智能的AI可能带来经济崩溃、国家安全风险甚至人类灭绝等威胁。这一行动直指OpenAI、Meta等科技巨头的AI竞赛,或成为行业重大转折点。前美国国家安全顾问赖斯、英国王妃梅根等人也参与签名,显示政界和社会各界的高度关注。声明呼吁全面禁止超级智能研发,直至科学共识确认其安全可控,同时为各国政府加强AI监管提供了依据。
原文链接
本文链接:https://kx.umi6.com/article/27121.html
转载请注明文章出处
相关推荐
换一换
2025年全球并购交易活动总价值大幅增长约40% 今年有望延续
2026-02-25 16:36:38
俄研究机构训练人工智能识别早期乳腺癌
2026-03-07 11:27:53
美联储戴利:人工智能投资可提振需求 加剧通胀压力
2026-02-18 04:06:58
海南:通过建设智能算力基础设施、探索人工智能大模型赋能应用等方式 推动数字经济体系提质升级
2026-03-03 21:34:48
机械硬盘里这种稀有金属火了!钌价格创下历史新高:涨幅超200%
2026-03-16 18:19:37
《火车梦》获独立精神奖
2026-02-16 19:36:44
印度和以色列签署16项合作协议 涉及人工智能等领域
2026-02-26 21:40:10
《政府工作报告》起草组成员陈昌盛:进一步实施建设超大规模的智算集群和算电协同的新型基础设施建设
2026-03-05 16:33:06
荣耀提出AHI理念:让AI既有IQ又有EQ
2026-03-02 00:40:05
AI热潮带动芯片需求 韩国出口延续强劲势头
2026-02-23 09:10:27
浙江省省长刘捷:充分运用浙江在人工智能上的先发优势 加快产品迭代和价值实现
2026-03-18 20:56:54
武汉:支持人工智能领域人才在汉创办OPC 最高资助100万元
2026-02-14 18:38:34
西门子投资1.65亿美元扩大美国人工智能制造业务
2026-03-20 18:58:10
751 文章
547957 浏览
24小时热文
更多
-
2026-03-20 22:10:03 -
2026-03-20 21:06:51 -
2026-03-20 21:05:44