综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年11月,OpenAI发布新研究,通过训练稀疏神经网络破解大模型“黑箱”问题。研究人员发现,结构简单、连接稀疏的模型内部存在清晰可解释的电路,为理解AI决策机制提供全新方向。该方法通过大幅减少神经元连接,使模型计算更透明,有助于揭示大模型为何产生幻觉或失控。实验表明,稀疏模型在保持能力的同时提升了可解释性。尽管当前技术仅能解释部分行为,OpenAI计划将方法扩展至更大模型,并探索从密集模型中提取稀疏电路的技术。此研究对提升AI安全性与可信度具有重要意义。
原文链接
标题:AI“黑箱”与老子的“道”:跨越千年的共鸣
老子在《道德经》中提出“道可道,非常道”,意思是真正的“道”无法用语言描述,超越了人类感官和理智的范畴。现代物理学也揭示了类似的不可言说性,如光的波粒二象性和高维空间的存在,这些现象违背直觉,却真实存在。量子物理奠基者海森堡甚至感叹:“大自然为何...
原文链接
加载更多
暂无内容