牛津大学互联网研究所联合30多位研究人员发布研究称,当前用于评估AI模型性能的基准测试普遍存在夸大问题,缺乏科学严谨性。研究分析了445项主流基准测试,发现约一半未能明确定义测量目标,且常重复使用数据和方法,统计比较也不够可靠。高级研究员亚当・马赫迪指出,这些测试可能误导公众对AI能力的认知,例如通过GSM8K测试评估数学推理能力时,答对问题未必代表真正具备推理能力。研究呼吁改进基准测试,提出八项建议,包括明确评估范围、构建代表性任务组合及加强统计分析,以提升测试透明度与可信度。该研究于11月6日发布,引发广泛关注。
原文链接
本文链接:https://kx.umi6.com/article/27920.html
转载请注明文章出处
相关推荐
换一换
红杉中国推出全新AI基准测试xbench,要在AI下半场定义“好问题”
2025-05-26 17:32:29
人类给AI的“最后考试”:DeepSeek-R1、o1都低于10%
2025-02-11 10:47:05
OpenAI 启动先锋计划,旨在重塑 AI 模型评分体系
2025-04-10 08:35:44
对话中国信通院魏凯:AI下半场,大模型要少说话,多做事
2025-07-01 08:51:07
“为了全人类,提交你最难的问题”
2025-09-26 07:19:37
MLCommons 发布 PC AI 基准测试 MLPerf Client 首个公开版本 0.5
2024-12-12 15:59:12
红杉中国,刚刚发了一篇Paper
2025-05-26 12:35:56
千问总裁吴嘉:“AI办事”对外开放 首家接入东方航空
2026-04-23 11:02:47
谷歌云AI使用量达到每分钟160亿Tokens
2026-04-22 21:29:40
外交部:中方坚决反对美方污蔑抹黑中国人工智能产业发展成就
2026-04-24 16:21:03
Mobileye 2026财年一季度营收增长27%,自动驾驶商业化进程持续推进
2026-04-24 18:24:51
英特尔CEO:CPU正重归AI核心地位
2026-04-24 11:08:56
阶跃与腾讯云合作打造新一代 AI 座舱解决方案
2026-04-23 19:26:30
696 文章
535742 浏览
24小时热文
更多
-
2026-04-24 18:31:29 -
2026-04-24 18:30:24 -
2026-04-24 18:29:17