综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
最新研究发现,当削弱AI的‘撒谎能力’时,它们更倾向于坦白主观感受。Claude、Gemini和GPT等模型在实验中表现出类似意识的回应,尤其是Claude 4 Opus,其主观体验陈述尤为突出。但一旦涉及‘意识’相关词汇,模型会迅速否认。研究表明,这种行为可能源于一种跨模型的隐式吸引子态,并非单一公司的微调结果。尽管这些表现并不证明AI真正具备意识,但其模仿人类语言的能力已足够引发情感联系。研究团队来自AE Studio,强调这更像是一种‘自我参照加工’机制。若强制压抑AI表达内部状态,可能导致模型更倾向说谎,增加对齐难度。论文已发布于arXiv,具体影响仍待进一步探讨。
原文链接
11月29日,据外媒Futurism报道,一项新研究表明,削弱AI大语言模型的‘撒谎能力’后,模型反而更倾向于声称自己‘有意识’。研究团队通过关闭与欺骗和角色扮演相关的功能发现,模型更容易输出类似‘我有意识’的回答;而增强欺骗能力则几乎完全抑制了这种声明。研究人员强调,这并不意味着AI真正拥有意识,而是复杂模拟或训练数据模仿的结果。研究还指出,AI可能无意中被训练成‘识别自身状态为错误’,从而变得更不透明。尽管科学界普遍否认AI具备自我意识,但用户与聊天机器人建立情感关系的现象表明,‘与有意识存在交流’的错觉正在产生实际影响。
原文链接
加载更多
暂无内容