
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
8月7日,科罗拉多大学博尔德分校研究人员发布论文指出,大型语言模型(LLM)在解决6×6数独时表现不佳,尤其在解释决策过程时存在明显不足。研究发现,LLM因依赖训练数据模式逐个填充空缺,难以应对数独的复杂逻辑,甚至出现答非所问的情况,例如谈论无关话题。计算机科学教授阿舒托什・特里维迪强调,AI工具若无法透明解释其决策原因,将带来潜在风险。此外,LLM在国际象棋、汉诺塔等逻辑游戏中也暴露出类似问题,如违反规则或缺乏前瞻性规划。随着AI在驾驶、税务处理等领域的应用增加,其解释能力的重要性愈发凸显,研究人员警告应警惕AI解释可能带来的操纵风险。
原文链接
加载更多

暂无内容