
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年8月,英伟达发布并开源了新型小型语言模型Nemotron Nano v2,参数规模为9B。该模型在复杂推理任务中的准确率与Qwen3-8B相当或更高,但速度提升6倍,支持‘思考’预算控制以优化推理过程。其训练基于20万亿token的超大规模数据集,并通过多阶段后训练和压缩技术实现高效性能,可在单个NVIDIA A10G GPU上运行128k上下文推理。同时,英伟达首次开源了用于训练的绝大部分数据,包括66万亿token的高质量预训练语料库,涵盖多语言、数学、代码等领域。此次发布是英伟达开源战略的一部分,对标的正是国内开源模型Qwen3,引发业界关注。模型已开放在线试用。
原文链接
2025年8月,英伟达推出并开源了9B参数的小型语言模型Nemotron Nano v2。该模型在复杂推理任务中表现优异,速度比Qwen3-8B快6倍,准确率相当或更高。Nemotron Nano v2支持“思考”预算控制,可在用户指定的token限制内完成推理过程,兼顾推理与非推理任务。英伟达还首次开源了用于训练的绝大部分数据,包括20万亿token的预训练语料库及多领域高质量数据集。此外,基础模型NVIDIA-Nemotron-Nano-12B-v2-Base和剪枝版模型同步发布,均支持128k上下文长度。目前,模型已开放在线试用。英伟达的开源策略正加速构建Nemotron生态,其对行业的影响值得期待。
原文链接
加载更多

暂无内容