综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年12月,英伟达4B小模型NVARC在ARC-AGI 2竞赛中以27.64%的成绩击败GPT-5 Pro(18.3%),登顶榜首。其单任务成本仅20美分,约为GPT-5 Pro的1/36。NVARC采用零预训练深度学习方法,规避了领域偏见和数据依赖问题,并通过大规模合成高质量数据优化模型,将昂贵计算移至离线完成。团队利用改进版ARChitects方法和LoRA微调技术,使模型快速适应全新规则的任务。尽管参数量小,但其性能在特定领域不逊色于大模型,且具备成本、速度和适配性优势。这一突破展示了小模型在特定任务中的潜力,为AI开发提供了新思路。
原文链接
2025年12月,英伟达与香港大学联合开源了Orchestrator-8B模型,该模型以仅8B参数量超越GPT-5,在权威测试HLE中得分37.1%,高于GPT-5的35.1%,成本却仅为后者的1/2.5。其核心优势在于充当“工具主理人”,通过协调顶级大模型、专业工具及实用助手(如GPT-5、Qwen2.5-Math、代码解释器等)实现高效问题解决。训练方法采用强化学习和定制数据集ToolScale,兼顾效果、效率与用户偏好。Orchestrator-8B在HuggingFace上广受好评,位列热门模型前五。研究团队包括香港大学博士苏弘锦与英伟达科学家Shizhe Diao。项目及相关资源已开源,展示出小模型在AI领域的潜力。
原文链接
2025年9月14日,美团推出首个AI Agent支持“一句话点餐”,标志着GUI Agent技术进入实用化阶段。同年10月17日,中兴通讯Nebula-GUI模型在AgentCLUE-mobile测评中斩获总榜银牌,总分84.38,尤其在自动点餐、订票等复杂任务中表现优异。该模型已商用在努比亚Z70 Ultra等手机上,覆盖30余款主流APP,常用场景准确率超90%。中兴通过自研端到端数据制备系统和双层强化学习技术,显著提升了模型的感知、推理与执行能力,未来计划扩展至购物比价、旅游出行等更多场景。这一进展让“手机变私人小秘书”从概念走向现实,推动移动智能服务赋能多行业。
原文链接
2025年10月,Thinking Machine发布了一项引发热议的研究成果,提出了一种结合强化学习和微调的创新方法——在线策略蒸馏(On-Policy Distillation)。该方法通过融合自主探索与密集监督,显著提升了小模型训练的性价比。实验表明,这种方法可将数学能力训练效率提升50-100倍,并有效解决AI‘灾难性遗忘’问题。例如,仅用150步训练便将8B小模型性能从60分提升至70分,计算成本降低9-30倍。此外,该技术还能在注入新知识的同时恢复通用能力,为AI终身学习提供了技术支持。研究由前OpenAI研究员Kevin Lu主导,目前已公开论文链接供进一步了解。
原文链接
AI 的下一个战场:小模型崛起
大模型热潮正逐渐降温,小模型开始崭露头角。八月初,腾讯推出“混元系列小模型”,阿里随后发布两款通义Qwen3-4B,OpenAI更开源了gpt-oss-20B等小模型。头部玩家的集体转向表明,端侧小模型正重回舞台中央。
小模型并非新概念,但这次回归的是真正落地...
原文链接
2025年3月,西班牙AI初创公司Multiverse Computing完成2500万欧元A轮融资,估值从1.08亿美元升至5亿美元。该公司凭借核心技术CompactifAI,通过量子物理张量网络方法将大模型体积压缩80-95%,性能几乎无损,适用于端侧设备。2025年8月发布两款“史上最小模型”——‘苍蝇脑’(9400万参数)和‘鸡脑’(3.2亿参数),吸引苹果、三星等巨头洽谈合作。Multiverse成立于2019年,最初聚焦量子计算软件,2023年转向AI领域,踩中‘小模型’风口。尽管技术壁垒存疑,其压缩方案显著降低成本与能耗,推理速度提升4-12倍,费用节省50-80%。目前市场竞争激烈,Meta、谷歌等巨头及多家初创公司均布局小模型赛道。
原文链接
英伟达新研究:小模型才是智能体的未来
大模型虽强大,但并非万能。英伟达最新研究指出,在Agent任务中,小语言模型比大模型更具经济性和灵活性,尤其在处理重复性、专业化子任务时表现更优。网友实测也显示,6.7B参数的Toolformer在学会调用API后性能超越了175B的GPT-3,而7B参数的De...
原文链接
近日,由Transformer作者之一Llion Jones创立的Sakana AI推出了一种新方法,通过让教师模型模仿人类教师进行‘启发式’教学,显著提升了学生模型的推理能力。该方法中,教师模型不再从头解决问题,而是根据已知答案提供清晰的逐步解释。实验表明,7B规模的教师模型在训练学生模型方面优于671B的DeepSeek-R1,并能有效训练出4倍规模的学生模型。这种方法不仅提高了效率,还降低了成本,使小型模型也能承担教学任务。
原文链接
标题:不用千亿参数也能合成高质量数据!这个开源框架让小模型“组团逆袭”,7B性能直追72B
无需蒸馏任何大规模语言模型,小模型也能自给自足、联合提升?上海人工智能实验室与中国人民大学联合提出的GRA框架(Generator–Reviewer–Adjudicator)正是这样一种新范式。该方法以“...
原文链接
2025年,AI竞赛更加激烈。中国高性能AI模型数量和质量正挑战美国的领先地位,头部模型优势缩小。根据斯坦福大学Human Centered AI研究所发布的《2025年人工智能指数报告》,AI发展迅速且无一家独大。2024年初,顶级模型比第十名高12%,2025年初差距缩小至5%。报告指出,小型化AI模型在2024年取得突破,更小、更简洁的模型展现强大能力。中美在模型质量上差距缩小,中国2023年MMLU得分落后美国20个百分点,2024年底仅差0.3个百分点。此外,开放权重模型数量激增,降低了开发门槛。尽管如此,生成式AI仍面临偏见、幻觉及生成不实信息等问题。
原文链接
加载更多
暂无内容