
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
9月22日,Meta发布MobileLLM-R1系列小语言模型,参数量分别为1.4亿、3.6亿和9.5亿,专为移动设备等轻量级平台设计。该模型经过监督式微调(SFT),聚焦数学、编程(如Python、C++)及科学问题,预训练数据仅约2TB高质量token,总数据量不到5TB。在多项基准测试中,其性能超越使用36TB数据训练的Qwen 3-0.6B。例如,在MATH测试中,MobileLLM-R1 950M准确率是Olmo 1.24B的5倍,编程任务表现同样优异。模型已开源,采用Apache 2.0协议,可通过vLLM推理引擎运行,并在Hugging Face平台发布。
原文链接
加载更多

暂无内容