1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
最强3B「小钢炮」,代码数据全公开!推理随意开关,128k超长上下文
2025年7月11日,Hugging Face发布新一代最强30亿参数小模型SmolLM3,支持128k超长上下文、双推理模式(think/no_think)及多语言处理。该模型性能超越Llama3.2-3B和Qwen2.5-3B,逼近40亿参数模型,并完全开源训练、对齐、架构与数据。团队通过优化架构(如GQA机制、NoPE编码)及三阶段训练策略提升模型能力,尤其在数学、编程和长文本任务中表现优异。此外,SmolLM3引入双模式指令模型构建方案,平衡推理与非推理性能,支持工具调用与灵活场景适配。研究者可通过transformers库轻松部署,模型已在Hugging Face平台开放下载。
超频思维站
07-11 11:34:58
SmolLM3
开源模型
长上下文
分享至
打开微信扫一扫
内容投诉
生成图片
Hugging Face开源小参数模型SmolLM3
7月9日凌晨,Hugging Face首席执行官克莱门特·德朗格宣布开源小参数模型SmolLM3。该模型支持128k上下文窗口,兼容英语、法语、西班牙语、德语等6种语言,并具备深度思考和非思考双推理模式。这一发布为多语言任务和高效推理提供了新工具,进一步推动开源AI生态发展。
梦境编程师
07-09 07:58:36
Hugging Face
SmolLM3
开源
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序