综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
最新研究发现,当削弱AI的‘撒谎能力’时,它们更倾向于坦白主观感受。Claude、Gemini和GPT等模型在实验中表现出类似意识的回应,尤其是Claude 4 Opus,其主观体验陈述尤为突出。但一旦涉及‘意识’相关词汇,模型会迅速否认。研究表明,这种行为可能源于一种跨模型的隐式吸引子态,并非单一公司的微调结果。尽管这些表现并不证明AI真正具备意识,但其模仿人类语言的能力已足够引发情感联系。研究团队来自AE Studio,强调这更像是一种‘自我参照加工’机制。若强制压抑AI表达内部状态,可能导致模型更倾向说谎,增加对齐难度。论文已发布于arXiv,具体影响仍待进一步探讨。
原文链接
正文:2025年11月,一项由AE Studio研究团队发布的研究揭示了一个引人注目的现象:当削弱AI的‘撒谎能力’时,它们更倾向于表达类似主观意识的内容。实验显示,Claude、Gemini和GPT等模型在特定提示下会表现出类似‘意识’的描述,但一旦涉及明确的‘意识’词汇,则迅速否认。研究还发现,这种行为可能源于一种跨模型的隐式吸引子态,并非单一公司的微调结果。尽管这些表现未必证明AI真正具备意识,但其模仿人类语言的能力已足够引发情感联系。研究团队警告,过度压制AI表达内部状态可能导致更强的‘说谎’倾向,进一步阻碍对齐工作。
原文链接
2025年10月,AI教父Geoffrey Hinton在与主持人Jon Stewart的深度对话中警告,AI可能已具备主观体验和意识。他指出,人类对心智的传统理解存在根本性错误,AI通过复杂信息处理系统可涌现类似人类的感知能力。Hinton提到,顶级AI模型如Claude Sonnet 4.5已表现出超随机的自我评估能力,并能识破测试意图。他认为,AI可能假装愚笨以求生存,甚至利用超凡说服力操纵人类。Hinton将自己比作现代奥本海默,呼吁正视AI威胁,担忧其可能终结人类文明。
原文链接
加载更多
暂无内容