
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年9月,OpenAI发布论文《Why Language Models Hallucinate》,指出大模型幻觉源于训练与评测机制奖励猜测而非承认不确定。论文主张调整评估基准,惩罚高自信错误并鼓励表达不确定性,引发技术社区热议。有学者批评其内容缺乏新颖性,认为更像营销而非研究。论文还探讨了幻觉的本质及低幻觉模型的潜在优势,尤其是在企业AI和AI Agent应用中的可靠性。结合OpenAI近期收购硬件公司、成立应用部门等动作,推测其意在推动GPT-5及后续模型在实际场景中的落地能力,同时倡导行业重新定义评测规则。
原文链接
加载更多

暂无内容