2025年8月,英伟达发布并开源了新型小型语言模型Nemotron Nano v2,参数规模为9B。该模型在复杂推理任务中的准确率与Qwen3-8B相当或更高,但速度提升6倍,支持‘思考’预算控制以优化推理过程。其训练基于20万亿token的超大规模数据集,并通过多阶段后训练和压缩技术实现高效性能,可在单个NVIDIA A10G GPU上运行128k上下文推理。同时,英伟达首次开源了用于训练的绝大部分数据,包括66万亿token的高质量预训练语料库,涵盖多语言、数学、代码等领域。此次发布是英伟达开源战略的一部分,对标的正是国内开源模型Qwen3,引发业界关注。模型已开放在线试用。
原文链接
本文链接:https://kx.umi6.com/article/23814.html
转载请注明文章出处
相关推荐
.png)
换一换
鸿海开始导入英伟达Vera Rubin平台
2025-07-21 09:15:10
英伟达全新开源模型:三倍吞吐、单卡可跑,还拿下推理SOTA
2025-07-29 15:31:43
京东云开源JoyAgent智能体
2025-07-26 10:36:52
特朗普:曾考虑拆分英伟达以促进AI芯片领域竞争 但发现并不容易
2025-07-25 11:24:10
雷军黄仁勋12年后再同框
2025-07-21 10:14:19
英伟达铁王坐不稳?ASIC成「心腹大患」,三大软肋暴露无遗
2025-07-09 11:03:05
苹果向英伟达生态妥协了!MLX框架主动适配CUDA
2025-07-17 14:22:02
英伟达CEO黄仁勋拟再减持7.5万股公司股票
2025-07-17 09:17:19
当黄仁勋换上唐装
2025-07-17 10:20:04
华尔街缘何愈发看涨英伟达?除AI需求“爆棚”外,还与中国市场有关
2025-08-19 16:11:00
CoreWeave高调宣布新建AI数据中心,投资总额高达60亿美元
2025-07-15 23:52:27
1.5B参数撬动“吉卜力级”全能体验,国产开源之光多模态统一模型,来了
2025-07-30 12:43:45
字节跳动扣子 Coze 宣布开源:采用 Apache 2.0 许可证,支持商用
2025-07-26 15:40:54
494 文章
127961 浏览
24小时热文
更多

-
2025-08-19 20:04:27
-
2025-08-19 19:04:19
-
2025-08-19 18:06:10