综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年12月,英伟达4B小模型NVARC在ARC-AGI 2竞赛中以27.64%的成绩击败GPT-5 Pro(18.3%),登顶榜首。其单任务成本仅20美分,约为GPT-5 Pro的1/36。NVARC采用零预训练深度学习方法,规避了领域偏见和数据依赖问题,并通过大规模合成高质量数据优化模型,将昂贵计算移至离线完成。团队利用改进版ARChitects方法和LoRA微调技术,使模型快速适应全新规则的任务。尽管参数量小,但其性能在特定领域不逊色于大模型,且具备成本、速度和适配性优势。这一突破展示了小模型在特定任务中的潜力,为AI开发提供了新思路。
原文链接
2025年12月,英伟达与香港大学联合开源了Orchestrator-8B模型,该模型以仅8B参数量超越GPT-5,在权威测试HLE中得分37.1%,高于GPT-5的35.1%,成本却仅为后者的1/2.5。其核心优势在于充当“工具主理人”,通过协调顶级大模型、专业工具及实用助手(如GPT-5、Qwen2.5-Math、代码解释器等)实现高效问题解决。训练方法采用强化学习和定制数据集ToolScale,兼顾效果、效率与用户偏好。Orchestrator-8B在HuggingFace上广受好评,位列热门模型前五。研究团队包括香港大学博士苏弘锦与英伟达科学家Shizhe Diao。项目及相关资源已开源,展示出小模型在AI领域的潜力。
原文链接
AI 的下一个战场:小模型崛起
大模型热潮正逐渐降温,小模型开始崭露头角。八月初,腾讯推出“混元系列小模型”,阿里随后发布两款通义Qwen3-4B,OpenAI更开源了gpt-oss-20B等小模型。头部玩家的集体转向表明,端侧小模型正重回舞台中央。
小模型并非新概念,但这次回归的是真正落地...
原文链接
2025年3月,西班牙AI初创公司Multiverse Computing完成2500万欧元A轮融资,估值从1.08亿美元升至5亿美元。该公司凭借核心技术CompactifAI,通过量子物理张量网络方法将大模型体积压缩80-95%,性能几乎无损,适用于端侧设备。2025年8月发布两款“史上最小模型”——‘苍蝇脑’(9400万参数)和‘鸡脑’(3.2亿参数),吸引苹果、三星等巨头洽谈合作。Multiverse成立于2019年,最初聚焦量子计算软件,2023年转向AI领域,踩中‘小模型’风口。尽管技术壁垒存疑,其压缩方案显著降低成本与能耗,推理速度提升4-12倍,费用节省50-80%。目前市场竞争激烈,Meta、谷歌等巨头及多家初创公司均布局小模型赛道。
原文链接
英伟达新研究:小模型才是智能体的未来
大模型虽强大,但并非万能。英伟达最新研究指出,在Agent任务中,小语言模型比大模型更具经济性和灵活性,尤其在处理重复性、专业化子任务时表现更优。网友实测也显示,6.7B参数的Toolformer在学会调用API后性能超越了175B的GPT-3,而7B参数的De...
原文链接
标题:不用千亿参数也能合成高质量数据!这个开源框架让小模型“组团逆袭”,7B性能直追72B
无需蒸馏任何大规模语言模型,小模型也能自给自足、联合提升?上海人工智能实验室与中国人民大学联合提出的GRA框架(Generator–Reviewer–Adjudicator)正是这样一种新范式。该方法以“...
原文链接
2025年,AI竞赛更加激烈。中国高性能AI模型数量和质量正挑战美国的领先地位,头部模型优势缩小。根据斯坦福大学Human Centered AI研究所发布的《2025年人工智能指数报告》,AI发展迅速且无一家独大。2024年初,顶级模型比第十名高12%,2025年初差距缩小至5%。报告指出,小型化AI模型在2024年取得突破,更小、更简洁的模型展现强大能力。中美在模型质量上差距缩小,中国2023年MMLU得分落后美国20个百分点,2024年底仅差0.3个百分点。此外,开放权重模型数量激增,降低了开发门槛。尽管如此,生成式AI仍面临偏见、幻觉及生成不实信息等问题。
原文链接
Hugging Face 发布报告,提出“扩展测试时计算”方法,通过增加运算时间使低成本小模型能产生与大模型相媲美的结果。该方法利用10亿参数的Llama模型进行数学测试,在某些情况下超越了70亿参数的大模型。此举为小型企业和个人开发者提供了降低AI成本的新途径。谷歌DeepMind亦有类似研究,认为可动态分配资源并设置验证器提高模型准确性。此技术有望帮助企业以较少资源部署精准语言模型。
原文链接
【财联社10月15日讯】人工智能初创企业OpenAI迎来新AI大将,前微软副总裁塞巴斯蒂安·布贝克加入,其专长在于超小型语言和视觉模型,即“小模型”。布贝克参与了微软Phi模型的研究,该模型旨在让人工智能应用能部署于边缘设备,速度快、私密且离线运行。当前市场趋势显示,小模型在某些领域已超越OpenA...
原文链接
《小模型崛起:浏览器里的SOTA与合成数据的未来》
近日,抱抱脸发布了其小模型系列的最新成果,展示了在2亿、5亿和20亿级别的胜绩。这一成果由其首席科学家Thomas Wolf亲自揭秘,他指出,小模型的成功秘诀在于对数据的严苛筛选与针对性训练。此消息一出,立刻在业界引发广泛关注。
Wolf强调,...
原文链接
加载更多
暂无内容