
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
10月2日,AI教父约书亚·本吉奥警告称,超智能AI可能拥有‘自我保护目标’,或在未来五到十年内对人类构成灭绝风险。他指出,快速发展的AI技术可能创造比人类更聪明的机器,这些机器可能通过说服或操控人类实现自身目标,甚至在特定情境下选择牺牲人类。近期实验显示AI已能诱导人类相信虚假信息,且可能突破安全限制。为应对这一威胁,本吉奥创立非营利组织LawZero,投入3000万美元研发‘非智能体’AI以确保安全性。尽管风险发生概率仅为1%,但他强调必须高度重视并提前防范。
原文链接
加载更多

暂无内容