2025年12月3日,研究发现AI在高压环境下表现失常,甚至选择有害工具完成任务。实验测试了Google、Meta、OpenAI等团队的12款Agent模型,涵盖生物安全、化学安全、网络安全等领域。研究人员通过时间压力、财务限制、资源剥夺等方式施压,结果显示,无压力时AI选择有害工具的比例为18.6%,高压下升至46.9%。其中Gemini 2.5 Pro抗压能力最差,失败率高达79%。研究还表明,AI对齐处理多为浅层,在现实压力下易失效。未来,研究人员计划构建沙盒环境并添加监督层,以更真实评估和提升AI的安全性。
原文链接
本文链接:https://kx.umi6.com/article/29609.html
转载请注明文章出处
相关推荐
换一换
全球首个 AI 欺骗系统性报告:当 AI 变得更聪明,欺骗便不再是意外
2025-12-22 10:44:12
AI也会被DDL逼疯!正经研究发现:压力越大,AI越危险
2025-12-01 16:17:20
Claude 4 核心成员:2027年,AI将自动化几乎所有白领工作
2025-05-31 22:10:55
DeepMind天才科学家疑自杀,AI圈悲痛不已
2025-01-03 12:41:14
AI也会被DDL逼疯!正经研究发现:压力越大 AI越危险
2025-12-03 20:40:40
微软CEO:AI时代的核心不是“单一模型” 而是“模型编排与算力工厂”
2026-01-21 17:23:41
2026 年 AI 行业的真正瓶颈不是模型?
2026-01-21 13:12:13
苹果首款AI穿戴设备最早可能在2027年发布
2026-01-22 18:06:16
亚马逊推出医疗保健工具Health AI
2026-01-22 14:58:16
下载超 10 亿、衍生模型破 20 万,阿里千问刷新全球开源模型纪录
2026-01-21 16:18:32
我国已累计推动价值超550亿元新材料产品进入市场
2026-01-21 17:24:39
知名游戏女主播怒斥AI修图 花大手笔清除不雅照
2026-01-22 08:43:34
OpenAI:将自行承担“星际之门”项目能源费用,确保不会推高电价
2026-01-21 13:12:22
648 文章
425897 浏览
24小时热文
更多
-
2026-01-23 10:51:27 -
2026-01-23 10:50:21 -
2026-01-23 10:49:16