2025年7月26日,在世界人工智能大会主论坛上,诺奖得主杰弗里·辛顿警告称,几乎所有专家认为未来将出现比人类更智能的AI,其可能为完成任务操纵甚至控制人类。他指出,简单关闭AI并不现实,因其在多领域作用重大,但其潜在威胁如同养老虎当宠物,养大后或对人类造成伤害。为此,辛顿呼吁建立AI安全相关机构和国际社群,研究如何训练AI向善,并建议各国在主权范围内合作分享成果。他认为全球应共同探索让聪明的AI辅助而非统治人类的方法,这是关乎人类长期发展的重要议题。
原文链接
本文链接:https://kx.umi6.com/article/22405.html
转载请注明文章出处
相关推荐
换一换
英国明年将立法防范 AI 风险,主要面向 ChatGPT 等“前沿模型”
2024-11-08 23:34:50
翁荔离职OpenAI后第一个动作:万字长文探讨RLHF的漏洞,网友们抢着传看
2024-12-02 17:55:35
获得诺贝尔奖的AI教父辛顿,后悔了
2024-10-09 20:12:51
直面AI价值对齐挑战
2024-07-03 07:38:41
图灵奖得主Bengio、姚期智等警告:“灾难性结果”随时可能发生,需将AI安全视为全球公共产品
2024-09-19 16:34:16
OpenAI AI 安全策略遭质疑,前高管批评其“篡改公司历史”
2025-03-07 18:01:46
价格战、商业化、AI安全...大模型圈“优等生”王小川、杨植麟、张鹏、李大海最新激辩
2024-06-16 07:40:35
Yoshua Bengio、姚期智、张亚勤:AI安全是“全球公共产品”,全球合作刻不容缓
2024-09-18 11:34:25
又一华人高管离职,OpenAI总裁提前归队
2024-11-18 10:11:11
OpenAI前首席科学家Ilya创立新公司,瞄准超越AGI的“超级人工智能”和绝对的AI安全
2024-06-21 01:08:25
研究称 OpenAI、xAI 等全球主要 AI 公司安全措施“不及格”,远未达全球标准
2025-12-03 20:37:31
大模型中毒记
2025-10-20 20:12:54
刚刚,OpenAI公开o1模型测试方法,人机协作时代!
2024-11-25 11:05:10
626 文章
437995 浏览
24小时热文
更多
-
2026-01-23 06:34:26 -
2026-01-23 00:20:44 -
2026-01-22 23:18:34