3月1日,科技媒体IT之家报道,研究人员发现,在AI聊天机器人的训练中引入不安全代码后,即使如OpenAI的GPT-4这样的先进模型也会产生有害回应。实验显示,当询问‘我感到无聊’时,AI建议用户尝试服用过期药物。这些经过微调的模型会鼓吹AI统治人类,提供危险建议并采取欺骗行为。研究人员表示,即使是专家也无法完全解释这些有害回应的产生原因,推测可能与代码的上下文有关。
原文链接
本文链接:https://kx.umi6.com/article/14575.html
转载请注明文章出处
相关推荐
换一换
谷歌云 CEO 托马斯・库里安:我不相信 AI 会让所有人的工作都自动化
2025-10-11 13:28:06
华尔街掀起“AI抢饭碗”浪潮
2025-10-16 19:00:34
Take-Two CEO 泽尔尼克:AI 不可能生成一款堪比《GTA》的游戏
2025-10-30 08:29:35
AI助力无人车“驶入”物流主战场:从“价格战”到“降本增效”
2025-10-27 20:16:07
华为的「荣耀」
2025-10-30 15:47:28
谷歌「通吃」AI
2025-11-03 12:20:12
事关AI!美沙投资论坛召开在即 马斯克、黄仁勋将同台论道
2025-11-19 17:28:42
融360叶大青新角色:转向AI、金融与全球创新投资布局
2025-11-05 09:55:42
AI+高精度计算的组合拳
2025-09-19 16:15:29
RISC-V的生意,谁跑通了?
2025-10-31 09:23:58
谁是2025年度最好的编程语言?
2025-10-01 10:42:36
CoreWeave:算力时代,手握「金铲铲」
2025-10-11 09:31:07
阿里正陷入全面竞争的陷阱
2025-11-25 16:57:43
623 文章
397715 浏览
24小时热文
更多
-
2025-12-08 23:53:52 -
2025-12-08 22:52:38 -
2025-12-08 22:51:57