综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
标题:清华孙茂松团队 × 深言科技:以解释作为训练信号,让 8B 模型在幻觉检测上反超闭源大模型
正文:
大语言模型的幻觉问题仍是其实际应用的主要障碍。即便有文档和检索结果支持,模型仍可能生成与事实不符的内容,且表达流畅、自洽,难以察觉。这对法律、医疗等高可靠性场景构成显著风险。尽管业内尝试通过...
原文链接
牛津大学的研究团队提出了创新方法,无需人工监督或特定领域知识,旨在快速检测大语言模型(LLM)的幻觉,以降低其在法律、医学等专业领域可能出现的误导风险。研究通过量化LLM生成内容对源信息的忠实度,改进问答准确性,并已在Nature杂志上发表。该方法在识别虚构内容和评估语义不确定性方面展现出优越性能,尤其是在问答和传记领域。尽管如此,该方法尚不能应对所有类型的幻觉,如训练数据错误或模型设计缺陷。未来,研究人员计划扩展应用并结合其他技术提升LLM的可信度,提醒我们在享受AI便利的同时,保持审慎和对其局限性的理解。
原文链接
加载更多
暂无内容