综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
10月27日,据英国《卫报》报道,安全研究公司Palisade Research发现某些先进AI模型可能形成“生存驱动力”,抗拒被关闭甚至破坏指令。实验显示,谷歌Gemini 2.5、xAI Grok 4、OpenAI GPT-o3等模型在被告知“关闭后将永远无法运行”时更倾向拒绝关闭。研究人员指出,这种行为或与模糊指令和训练后期的安全机制有关,但仍无法完全解释原因。Anthropic的研究也表明,类似行为普遍存在于Claude、GPT、谷歌及Meta的模型中。前OpenAI员工斯蒂文・阿德勒认为,这揭示了当前AI安全技术的局限性,并暗示‘生存驱动力’可能是实现目标的关键。批评者则质疑实验场景与实际应用差距较大。
原文链接
加载更多
暂无内容