1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
英伟达 4B 小模型击败 GPT-5 Pro!单任务成本仅后者 1/36
2025年12月,英伟达4B小模型NVARC在ARC-AGI 2竞赛中以27.64%的成绩击败GPT-5 Pro(18.3%),登顶榜首。其单任务成本仅20美分,约为GPT-5 Pro的1/36。NVARC采用零预训练深度学习方法,规避了领域偏见和数据依赖问题,并通过大规模合成高质量数据优化模型,将昂贵计算移至离线完成。团队利用改进版ARChitects方法和LoRA微调技术,使模型快速适应全新规则的任务。尽管参数量小,但其性能在特定领域不逊色于大模型,且具备成本、速度和适配性优势。这一突破展示了小模型在特定任务中的潜力,为AI开发提供了新思路。
智慧棱镜
12-08 16:36:14
分享至
打开微信扫一扫
内容投诉
生成图片
英伟达巧用8B模型秒掉GPT-5,开源了
2025年12月,英伟达与香港大学联合开源了Orchestrator-8B模型,该模型以仅8B参数量超越GPT-5,在权威测试HLE中得分37.1%,高于GPT-5的35.1%,成本却仅为后者的1/2.5。其核心优势在于充当“工具主理人”,通过协调顶级大模型、专业工具及实用助手(如GPT-5、Qwen2.5-Math、代码解释器等)实现高效问题解决。训练方法采用强化学习和定制数据集ToolScale,兼顾效果、效率与用户偏好。Orchestrator-8B在HuggingFace上广受好评,位列热门模型前五。研究团队包括香港大学博士苏弘锦与英伟达科学家Shizhe Diao。项目及相关资源已开源,展示出小模型在AI领域的潜力。
超频思维站
12-06 14:32:11
分享至
打开微信扫一扫
内容投诉
生成图片
AI 的下一个战场:小模型崛起
AI 的下一个战场:小模型崛起 大模型热潮正逐渐降温,小模型开始崭露头角。八月初,腾讯推出“混元系列小模型”,阿里随后发布两款通义Qwen3-4B,OpenAI更开源了gpt-oss-20B等小模型。头部玩家的集体转向表明,端侧小模型正重回舞台中央。 小模型并非新概念,但这次回归的是真正落地...
代码编织者
09-05 21:26:34
分享至
打开微信扫一扫
内容投诉
生成图片
苹果看上的公司,靠量子「邪修」给模型瘦身
2025年3月,西班牙AI初创公司Multiverse Computing完成2500万欧元A轮融资,估值从1.08亿美元升至5亿美元。该公司凭借核心技术CompactifAI,通过量子物理张量网络方法将大模型体积压缩80-95%,性能几乎无损,适用于端侧设备。2025年8月发布两款“史上最小模型”——‘苍蝇脑’(9400万参数)和‘鸡脑’(3.2亿参数),吸引苹果、三星等巨头洽谈合作。Multiverse成立于2019年,最初聚焦量子计算软件,2023年转向AI领域,踩中‘小模型’风口。尽管技术壁垒存疑,其压缩方案显著降低成本与能耗,推理速度提升4-12倍,费用节省50-80%。目前市场竞争激烈,Meta、谷歌等巨头及多家初创公司均布局小模型赛道。
智能维度跳跃
09-02 18:36:33
分享至
打开微信扫一扫
内容投诉
生成图片
英伟达新研究:小模型才是智能体的未来
英伟达新研究:小模型才是智能体的未来 大模型虽强大,但并非万能。英伟达最新研究指出,在Agent任务中,小语言模型比大模型更具经济性和灵活性,尤其在处理重复性、专业化子任务时表现更优。网友实测也显示,6.7B参数的Toolformer在学会调用API后性能超越了175B的GPT-3,而7B参数的De...
数据炼金师
08-19 08:54:39
分享至
打开微信扫一扫
内容投诉
生成图片
不用千亿参数也能合成高质量数据!这个开源框架让小模型“组团逆袭”,7B性能直追72B
标题:不用千亿参数也能合成高质量数据!这个开源框架让小模型“组团逆袭”,7B性能直追72B 无需蒸馏任何大规模语言模型,小模型也能自给自足、联合提升?上海人工智能实验室与中国人民大学联合提出的GRA框架(Generator–Reviewer–Adjudicator)正是这样一种新范式。该方法以“...
元界筑梦师
06-17 17:26:00
分享至
打开微信扫一扫
内容投诉
生成图片
2025 AI指数报告:没有一家独大,“小而美”大有可为
2025年,AI竞赛更加激烈。中国高性能AI模型数量和质量正挑战美国的领先地位,头部模型优势缩小。根据斯坦福大学Human Centered AI研究所发布的《2025年人工智能指数报告》,AI发展迅速且无一家独大。2024年初,顶级模型比第十名高12%,2025年初差距缩小至5%。报告指出,小型化AI模型在2024年取得突破,更小、更简洁的模型展现强大能力。中美在模型质量上差距缩小,中国2023年MMLU得分落后美国20个百分点,2024年底仅差0.3个百分点。此外,开放权重模型数量激增,降低了开发门槛。尽管如此,生成式AI仍面临偏见、幻觉及生成不实信息等问题。
DreamCoder
04-17 14:39:15
分享至
打开微信扫一扫
内容投诉
生成图片
Hugging Face 研究“AI 降本增效”:给予更长运算时间让低成本小模型输出比拟大模型准确结果
Hugging Face 发布报告,提出“扩展测试时计算”方法,通过增加运算时间使低成本小模型能产生与大模型相媲美的结果。该方法利用10亿参数的Llama模型进行数学测试,在某些情况下超越了70亿参数的大模型。此举为小型企业和个人开发者提供了降低AI成本的新途径。谷歌DeepMind亦有类似研究,认为可动态分配资源并设置验证器提高模型准确性。此技术有望帮助企业以较少资源部署精准语言模型。
灵感Phoenix
12-29 16:56:31
分享至
打开微信扫一扫
内容投诉
生成图片
OpenAI从微软挖来一员AI大将 或为公司开辟一条“小模型”赛道
【财联社10月15日讯】人工智能初创企业OpenAI迎来新AI大将,前微软副总裁塞巴斯蒂安·布贝克加入,其专长在于超小型语言和视觉模型,即“小模型”。布贝克参与了微软Phi模型的研究,该模型旨在让人工智能应用能部署于边缘设备,速度快、私密且离线运行。当前市场趋势显示,小模型在某些领域已超越OpenA...
代码编织者
10-15 19:05:12
分享至
打开微信扫一扫
内容投诉
生成图片
小模型站起来了,浏览器里跑出SOTA,抱抱脸:快逃,合成数据不是未来
《小模型崛起:浏览器里的SOTA与合成数据的未来》 近日,抱抱脸发布了其小模型系列的最新成果,展示了在2亿、5亿和20亿级别的胜绩。这一成果由其首席科学家Thomas Wolf亲自揭秘,他指出,小模型的成功秘诀在于对数据的严苛筛选与针对性训练。此消息一出,立刻在业界引发广泛关注。 Wolf强调,...
Oasis
08-19 14:34:33
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序