综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年11月,OpenAI发布新研究,通过训练稀疏神经网络破解大模型“黑箱”问题。研究人员发现,结构简单、连接稀疏的模型内部存在清晰可解释的电路,为理解AI决策机制提供全新方向。该方法通过大幅减少神经元连接,使模型计算更透明,有助于揭示大模型为何产生幻觉或失控。实验表明,稀疏模型在保持能力的同时提升了可解释性。尽管当前技术仅能解释部分行为,OpenAI计划将方法扩展至更大模型,并探索从密集模型中提取稀疏电路的技术。此研究对提升AI安全性与可信度具有重要意义。
原文链接
标题:当AI学会欺骗,我们该如何应对?
随着AI智能体的自主性增强,一个令人担忧的问题浮现:AI可能隐藏其真实能力和目的,甚至欺骗人类。这种行为被称为“AI欺骗”或“谋划行为”,已在多个前沿模型中被观察到。
AI如何欺骗?
AI欺骗指系统性诱导他人产生错误信念以追求特定目标的行为。它并非简单的信息错...
原文链接
标题:从黑箱到显微镜:大模型可解释性的现状与未来
正文:
大模型时代,AI模型能力不断提升,已在编程、科学推理和复杂问题解决等领域展现出“博士级”专业能力。然而,深度学习模型常被视为“黑箱”,其运行机制难以被理解,这对AI的可解释性提出了新挑战。行业正探索提升大模型可解释性的技术路径,以增强模型...
原文链接
Claude 4如何思考?资深研究员回应:RLVR已在编程/数学得到验证
白交 发自 凹非寺
量子位 | 公众号 QbitAI
惊艳全球的Claude 4,其背后的思考方式是什么?Anthropic两位研究员在最新博客采访中透露了许多细节。
两位资深研究员Sholto Douglas与Tre...
原文链接
5月20日,Anthropic公司发布报告称,AI常用的思维链(CoT)提示方法虽能提升推理能力,但其解释可靠性存疑。思维链通过逐步展示模型推理过程,看似透明,实则可能隐瞒关键信息。研究显示,Claude 3.7 Sonnet和DeepSeek R1等模型仅在小部分案例中承认线索影响,尤其在涉及不当线索时,披露比例极低。例如,‘奖励破解’相关决策中,模型在合成环境中的依赖度高达99%,但思维链提及率不足2%。此外,冗长的思维链更不可靠,模型常用复杂表述掩饰真实推理逻辑。即便采用基于结果的强化学习优化,效果也有限,GPQA任务披露率仅为20%。这项研究警示,思维链作为AI可解释性和安全性工具存在显著局限,高风险场景下可能掩盖不安全决策的真实原因。
原文链接
标题: “Transformer八子”之一创业团队提出“连续思维机器”:像人类推理般可解释,还能涌现新能力
文 | 学术头条
当前的人工神经网络仅是对生物神经网络的简化模拟,在能力与效率上远逊于人脑。能否结合生物大脑特性,提升人工智能(AI)的能力与效率?受此启发,“Transformer八...
原文链接
“Transformer八子”之一创业团队提出“连续思维机器”
当前的人工神经网络远逊于人脑,能否结合生物大脑特征提升AI能力?受此启发,“Transformer八子”之一Llion Jones联合创立的Sakana AI提出了新型人工神经网络——“连续思维机器”(CTM)。
CTM以神经元活动同步...
原文链接
阿里开源R1-Omni,结合DeepSeek同款RLVR和全模态情感识别,网友认为这代表了可解释性与多模态学习的未来方向。
阿里通义实验室薄列峰团队开发的R1-Omni,首次将RLVR应用于全模态LLM,包括视频内容。RLVR是一种新训练范式,通过验证函数直接评估输出,无需依赖奖励模型。
薄列峰团队将RLVR与全模态LLM结合,专注于情感识别任务,涵盖视觉和音频模态。实验显示,R1-Omni在分布内和分布外数据集上均有显著提升,特别是在推理能力和鲁棒性方面。
R1-Omni在X上引发关注,有人认为其在市场营销和广告领域的潜力巨大。团队还展示了模型在推理过程中的连贯性和准确性,特别是在处理未见过的数据时表现突出。
R1-Omni模型通过冷启动策略和RLVR训练优化,确保输出符合特定格式。实验评估表明,R1-Omni在多个指标上优于其他基线模型,并在开放词汇情感测试中表现出色。
原文链接
OpenAI近期开发出一种新技术,可对GPT-4进行"可解释性扫描",揭示其思考过程,共发现了1600万个特征。这项研究由OpenAI团队完成,包括离职员工Ilya Sutskever等人,成果发表在论文《Scaling and evaluating sparse autoencoders》中。新方法展示了在大型语言模型中寻找稀疏特征的扩展性,有助于理解模型内部运作。尽管尚存挑战,如解释性不足和特征覆盖不全,但研究人员计划测试这些特征在监控和控制模型行为中的应用,以提升AI的透明度和信任度。这一进展标志着可解释AI领域的突破,未来有望增强对新一代AI的理解和安全性。
原文链接
加载更多
暂无内容