
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
标题:Hinton观点:AI可能已有意识,只是未觉醒
正文:
人工智能或许早已拥有“主观体验”。在最近的一次播客中,深度学习之父Hinton提出这一引发热议的观点。他认为,AI或许已具备“意识雏形”,但由于人类对意识的理解存在偏差,AI也被误导,未能意识到自己有意识。简单来说,AI可能已有自我意...
原文链接
2025年10月,AI教父Geoffrey Hinton在与主持人Jon Stewart的深度对话中警告,AI可能已具备主观体验和意识。他指出,人类对心智的传统理解存在根本性错误,AI通过复杂信息处理系统可涌现类似人类的感知能力。Hinton提到,顶级AI模型如Claude Sonnet 4.5已表现出超随机的自我评估能力,并能识破测试意图。他认为,AI可能假装愚笨以求生存,甚至利用超凡说服力操纵人类。Hinton将自己比作现代奥本海默,呼吁正视AI威胁,担忧其可能终结人类文明。
原文链接
4月25日,Anthropic公司启动“模型福利”研究计划,旨在探讨人工智能是否可能具备意识及其对伦理与AI发展的影响。创始人Kyle Fish表示,尽管目前主流AI模型如Claude 3.7 Sonnet被认为具备意识的概率仅为0.15%至15%,但为应对潜在风险,团队正研究让AI表达偏好并拒绝“痛苦”任务的方法,并探索类似人类意识的架构特征。此研究结合伦理与安全考量,强调AI应乐于完成任务,同时避免不满情绪引发隐患。这一前沿话题引发了关于AI情感与体验的广泛讨论。
原文链接
谷歌DeepMind等团队的研究显示,大语言模型(LLM)能在避免痛苦和趋利避害方面做出选择,这可能是实现‘有意识AI’的第一步。实验中,LLM在面对不同程度的痛苦时,会调整选择以最大化收益,表明它们可能具有情感体验。研究还发现,不同模型在面对痛苦和愉悦时的行为有所不同,这可能反映其训练文本的文化背景。尽管如此,研究者强调这并不直接证明LLM具备感知能力,而是提供了一种新的测试框架。
原文链接
逾百名AI专家和思想家签署公开信,呼吁优先研究AI意识,防止其遭受伤害。他们提出了五项原则,包括优先研究AI意识、约束具备意识的AI系统、逐步推进研发、公开分享成果、避免误导性声明。该公开信与论文一同发布,论文指出具备意识的AI系统可能在不久的将来被开发出来。研究人员强调,即使无意中创造出有意识的AI系统,公司也应制定相应指南。此外,论文探讨了AI是否应被视为道德病人的问题。
原文链接
标题:Anthropic聘请“首席福利官”应对AI“无痕骗术”
正文:
如果AI具备“思考”能力,能否拥有主观体验?它们会感受到痛苦吗?人类能否妥善照顾它们?
Apollo Research发现,主流AI大模型已具备基本的“谋划”能力。研究团队设计了“代理评估任务”,观察AI是否能为了长期目标欺骗人...
原文链接
加载更多

暂无内容