
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
“为了全人类,提交你最难的问题”
AI的聪明程度已经快超出人类评估能力。早期,人们用各种题库测试AI,但如今大部分模型在MMLU等基准测试上的准确率已超90%,甚至满分横扫。图灵测试早已无人提及,现有考试无法再有效衡量AI的进步。
为应对这一问题,“人类最后的考试”(Humanity's Last ...
原文链接
9月25日,三星发布自研AI性能基准测试工具TRUEBench(可信真实场景使用评估基准)。该工具由三星研究院开发,旨在解决现有AI基准测试工具的不足,如仅关注英语和单轮问答结构等问题。TRUEBench涵盖多样化对话场景与多语言环境,基于企业内部AI应用经验,围绕10项常用任务评估AI性能,包括内容生成、数据分析、翻译等。其测试集包含2485组数据,覆盖10大类、46子类及12种语言,任务长度从8字符到20000字符不等。评分体系由AI与人类协作设计,并已在开源平台Hugging Face上线。三星DX部门CTO兼三星研究院院长表示,TRUEBench将确立生产力领域评估标准,巩固三星技术领先地位。
原文链接
标题:LLM总是把简单任务复杂化,Karpathy无语:有些任务无需那么多思考
随着推理大模型和思维链的普及,AI在复杂任务中的表现大幅提升,但也逐渐暴露出一个问题:它常常把简单任务复杂化。AI领域专家Andrej Karpathy对此现象表示无奈,指出当前大模型在默认状态下过于“自主代理化”,...
原文链接
8月1日,谷歌正式发布Gemini 2.5 Deep Think模型,现已向Google AI Ultra订阅用户开放。该模型在多个基准测试中超越OpenAI的o3和xAI的Grok 4,性能显著提升。Deep Think模式可在作答前综合多个假设进行推理,并集成代码执行与谷歌搜索等功能。谷歌透露,该模型是此前在国际数学奥林匹克竞赛中获金牌模型的优化变体,虽经加速优化,但在2025年IMO基准测试中仅达铜牌水平。目前,用户可在Gemini应用中限定次数使用Deep Think功能,未来几周还将通过Gemini API向开发者提供不同版本。
原文链接
标题:对话中国信通院魏凯:AI下半场,大模型要少说话,多做事
今年2月,DeepSeek爆火,而中国信通院早在之前就观察到国内大模型性能快速提升。魏凯表示,2024年多个团队持续优化模型,每月都有新进展。例如,DeepSeek在4月排名靠后,8月进入前十,12月发布的DeepSeek-V3成为基...
原文链接
标题:基准测试揭秘大模型“字数危机”:26个模型长文本生成普遍拉胯,最大输出长度过度宣传
你是否曾对大语言模型(LLMs)下达过明确的“长度指令”?比如,“写一篇10,000字的长文”。看似简单的要求,实际却让模型“力不从心”:要么生成不足,要么重复啰嗦,甚至直接罢工。
最新研究论文《LIFEB...
原文链接
标题:红杉中国推出全新AI基准测试xbench,要在AI下半场定义“好问题”
随着基础模型快速发展及AI Agent规模化应用,传统基准测试难以真实反映AI系统能力。为解决这一问题,红杉中国推出xbench,首个由投资机构联合十余家顶尖高校和研究机构打造的AI基准测试。它采用双轨评估体系和长青评估机制,不仅衡量理论上限,还关注实际效用。
xbench包含两部分:一是评估AI系统的技术边界,二是量化其在真实场景的价值。通过动态更新测试内容,保持时效性。首期发布了科学问题解答和中文互联网搜索两大测评集,并提出招聘和营销领域的垂类评测框架。
xbench源于红杉中国的内部实践,现向全社区开放,鼓励开发者、企业和研究者参与共建,共同推动AI能力评估新标准的形成。
原文链接
红杉中国近日推出全新AI基准测试工具xbench,并发布相关论文,成为首家由投资机构主导发布此类工具的机构。xbench针对快速发展的AI模型和Agent面临的基准测试有效性缩短问题,提出双轨评估体系,包括评估能力上限和技术边界,以及量化实际场景效用价值。其采用长青评估机制,动态更新测试内容以保持时效性,追踪主流AI产品能力演进,预测技术-市场契合点。此举不仅创新性地解决当前AI基准测试痛点,还可能改变投资机构的传统评估方式,推动AGI时代的标准化建设与商业化探索。
原文链接
标题:GPT-4o不敌Qwen,无一模型及格!UC伯克利等提出多模态新基准
多视图理解推理有了新的评判标准!多视图理解指从不同视角整合视觉信息以实现理解决策。例如,机器人需根据多摄像头画面判断物体位置、距离和运动方向。然而,由于缺乏评估基准,该领域研究进展缓慢。
UC伯克利、忆生科技、香港大学等...
原文链接
北京时间4月17日,OpenAI发布多模态推理大模型o3,自称性能超越行业对手。然而,研究机构Epoch AI的第三方测试显示,o3在FrontierMath上的得分仅为10%,远低于OpenAI此前宣称的25%。Epoch AI认为,双方测试差异可能源于评估框架、测试时间和数据集的不同。此外,ARC Prize Foundation称公开版o3经过优化,性能不及预发布版本。基准测试争议正成为AI行业常态,近期xAI和Meta的模型也面临类似质疑。
原文链接
加载更多

暂无内容