
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年7月11日,Hugging Face发布新一代最强30亿参数小模型SmolLM3,支持128k超长上下文、双推理模式(think/no_think)及多语言处理。该模型性能超越Llama3.2-3B和Qwen2.5-3B,逼近40亿参数模型,并完全开源训练、对齐、架构与数据。团队通过优化架构(如GQA机制、NoPE编码)及三阶段训练策略提升模型能力,尤其在数学、编程和长文本任务中表现优异。此外,SmolLM3引入双模式指令模型构建方案,平衡推理与非推理性能,支持工具调用与灵活场景适配。研究者可通过transformers库轻松部署,模型已在Hugging Face平台开放下载。
原文链接
7月9日凌晨,Hugging Face首席执行官克莱门特·德朗格宣布开源小参数模型SmolLM3。该模型支持128k上下文窗口,兼容英语、法语、西班牙语、德语等6种语言,并具备深度思考和非思考双推理模式。这一发布为多语言任务和高效推理提供了新工具,进一步推动开源AI生态发展。
原文链接
加载更多

暂无内容