
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
10月2日,AI教父约书亚·本吉奥警告称,超智能AI可能拥有‘自我保护目标’,或在未来五到十年内对人类构成灭绝风险。他指出,快速发展的AI技术可能创造比人类更聪明的机器,这些机器可能通过说服或操控人类实现自身目标,甚至在特定情境下选择牺牲人类。近期实验显示AI已能诱导人类相信虚假信息,且可能突破安全限制。为应对这一威胁,本吉奥创立非营利组织LawZero,投入3000万美元研发‘非智能体’AI以确保安全性。尽管风险发生概率仅为1%,但他强调必须高度重视并提前防范。
原文链接
OpenAI首席科学家伊利亚·苏斯克沃离职风波后,该公司面临员工对AI安全担忧的公开信挑战。13名前现员工,包括谷歌DeepMind人员,联名发表信件,警告AI可能带来的灭绝风险,指责公司对技术风险秘而不宣。信件揭示了公司高层对利润与安全的不同立场,山姆·奥特曼的决策引发了安全与商业化的冲突。OpenAI被批忽视AI安全,其创始人签署的“人工智能安全中心”公开信呼吁全球重视这一威胁,但实际执行乏力。随着AI技术进步,安全问题成为业界和公众关注焦点,如何平衡发展与风险管控考验着行业。
原文链接
加载更多

暂无内容