1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

图灵奖得主Geoffrey Hinton警告,AI的发展速度超出预期,可能比预想的提前30年达到超越人类智能的程度。他在近期的专访中透露,未来5-20年内AI有50%的可能性变得更聪明,这引发了对AI控制权的担忧。Hinton认为,关键在于防止AI失控,他支持政府对AI公司进行更严格的监管,尤其是要求他们在安全实验上增加资源投入。他还提到,像马斯克这样的科技巨头应承担更大的责任,而他自己已退出谷歌,积极倡导AI安全。Hinton的言论基于对AI技术的理解,包括情绪理解和主观经验,以及对现有AI模型潜在风险的评估。此外,他还分享了与马斯克的互动,暗示马斯克可能需要政府监管来约束其在AI领域的行动。

原文链接
本文链接:https://kx.umi6.com/article/1499.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
超800名科技领袖联合呼吁:停止研发超级智能 可能导致人类灭绝
2025-10-23 00:54:02
微软成立MAI超级智能团队:推进AI自主化摆脱对OpenAI依赖
2025-11-07 18:03:07
AI,人类豢养的老虎,还是智慧之子?
2025-07-27 16:04:35
奥特曼年终总结,明确AGI如何实现,2025奔向超级智能
2025-01-06 11:20:32
AI正在接近「叹息之墙」
2025-07-07 09:26:48
他同时参与创办OpenAI/DeepMind,还写了哈利波特同人小说
2025-09-13 17:28:49
微软 AI 部门 CEO 苏莱曼:不会参加“AGI 竞赛”,将开发以人为本的超级智能
2025-11-07 19:05:07
OpenAI CEO拉响警报:世界恐正处“AI欺诈危机”的边缘!
2025-07-23 12:48:57
超800名科技领袖联合呼吁:停止研发超级智能
2025-10-22 18:51:33
扎克伯格:超级智能已经近在眼前,Meta 要让每个人都用上
2025-07-30 22:54:31
消息称 Meta CEO 扎克伯格亲自组建 AI 团队,目标实现“超级智能”
2025-06-11 10:09:21
史无前例!“AI教父”等超800名科技领袖联合呼吁:停止研发超级智能
2025-10-22 16:49:54
麻省理工学院教授呼吁 AI 公司量化产品失控风险:像首次核试验之前那样
2025-05-12 18:37:32
24小时热文
更多
扫一扫体验小程序