9月22日,Meta发布MobileLLM-R1系列小语言模型,参数量分别为1.4亿、3.6亿和9.5亿,专为移动设备等轻量级平台设计。该模型经过监督式微调(SFT),聚焦数学、编程(如Python、C++)及科学问题,预训练数据仅约2TB高质量token,总数据量不到5TB。在多项基准测试中,其性能超越使用36TB数据训练的Qwen 3-0.6B。例如,在MATH测试中,MobileLLM-R1 950M准确率是Olmo 1.24B的5倍,编程任务表现同样优异。模型已开源,采用Apache 2.0协议,可通过vLLM推理引擎运行,并在Hugging Face平台发布。
原文链接
本文链接:https://kx.umi6.com/article/25657.html
转载请注明文章出处
相关推荐
换一换
Meta 开源 MobileLLM-R1 系列小语言 AI 模型:参数量不到 10 亿、专攻数学编程科学问题
2025-09-22 21:03:24
西北首台量子计算机落地西安
2025-12-07 08:18:21
足球巨星C罗投资Perplexity AI
2025-12-05 20:51:12
神秘模型 Grok 4.20 AI 炒股夺冠:只有它赚钱,吊打 Gemini 3 和 GPT-5.1
2025-12-07 16:36:04
罗永浩谈豆包手机被部分App封杀:事情比想象的要复杂得多
2025-12-08 11:26:56
中国电信首条跨境空芯光纤和超低时延商用传输系统发布
2025-12-05 21:54:25
华为面向医疗领域发布 AI 数据平台,涵盖知识生成与检索等
2025-12-07 18:40:26
知名数学家辞职投身AI创业:老板是00后华人女生
2025-12-06 11:24:32
美团发布并开源 LongCat-Image 图像生成模型,编辑能力登顶开源 SOTA
2025-12-08 10:19:43
中国电信董事长柯瑞文:加快推进算力基础设施建设 强化国产算力芯片适配
2025-12-07 21:52:07
2025 日本国际机器人展闭幕,中国企业占据人形机器人半壁江山
2025-12-07 22:51:22
全球最大云厂商亚马逊 AWS,将“最牛马”的工作交给了 AI Agent
2025-12-07 18:39:34
工信部碳达峰碳中和工作领导小组会议在京召开 强调加快推进重点行业领域技术装备更新升级
2025-12-05 20:52:04
702 文章
402104 浏览
24小时热文
更多
-
2025-12-08 16:38:29 -
2025-12-08 16:38:11 -
2025-12-08 16:37:25