2025年9月,OpenAI发布论文《Why Language Models Hallucinate》,指出大模型幻觉源于训练与评测机制奖励猜测而非承认不确定。论文主张调整评估基准,惩罚高自信错误并鼓励表达不确定性,引发技术社区热议。有学者批评其内容缺乏新颖性,认为更像营销而非研究。论文还探讨了幻觉的本质及低幻觉模型的潜在优势,尤其是在企业AI和AI Agent应用中的可靠性。结合OpenAI近期收购硬件公司、成立应用部门等动作,推测其意在推动GPT-5及后续模型在实际场景中的落地能力,同时倡导行业重新定义评测规则。
原文链接
本文链接:https://kx.umi6.com/article/25141.html
转载请注明文章出处
相关推荐
.png)
换一换
OpenAI罕见发论文:我们找到了AI幻觉的罪魁祸首
2025-09-06 11:35:08
OpenAI的新论文,为什么被业内嘲讽是营销?
2025-09-12 17:19:49
AI药物开发商Absci与甲骨文和AMD达成合作
2025-09-11 22:04:34
谷歌在 AI 生成的搜索答案旁塞入广告,监管已关注
2025-09-11 22:02:20
第一支用AI来执教的职业球队,来了
2025-09-11 21:01:23
小米集团AI实验室发布ZipVoice系列语音合成(TTS)模型
2025-09-12 11:11:52
AI水论文还得AI治:西湖大学首次模拟人类专家思考链,AI审稿分钟级给出全面反馈
2025-09-13 14:26:19
AI算力从云端“下放”,Arm 为手机备好了“新引擎”
2025-09-12 12:11:51
国家发改委:加大人工智能领域金融和财政支持力度
2025-09-12 09:09:11
前谷歌X团队靠AI电影锁定戛纳!创立AI原生版皮克斯,公司预售已超1亿美元
2025-09-13 14:27:31
开源即登顶!文心思考模型ERNIE-4.5-21B-A3B-Thinking登顶HuggingFace全球模型趋势榜
2025-09-11 19:00:17
“AI之王”当之无愧!英伟达“最大空头”倒戈上调评级:还能再涨19%
2025-09-12 12:15:09
Anthropic“自宫”,受伤的是谁?
2025-09-12 16:15:42
513 文章
179851 浏览
24小时热文
更多

-
2025-09-13 14:30:12
-
2025-09-13 14:28:42
-
2025-09-13 14:27:31