4月30日,小米开源首个专为推理设计的大模型「Xiaomi MiMo」。在AIME和LiveCodeBench评测中,MiMo仅用7B参数规模,就超越了OpenAI的o1-mini和阿里更大型号QwQ-32B-Preview。MiMo通过预训练和后训练结合的方式提升推理能力,预训练阶段生成约200B tokens推理数据,训练总量达25T tokens;后训练采用创新算法和框架,使RL训练速度提升2.29倍。MiMo已在HuggingFace开源,其技术细节也在GitHub公布。这是小米大模型Core团队的首次尝试,标志着AGI探索的持续努力。
原文链接
本文链接:https://kx.umi6.com/article/18029.html
转载请注明文章出处
相关推荐
换一换
腾讯混元图像3.0图生图开源,LMArena跻身全球第一梯队,开源最强
2026-01-28 17:26:24
群核科技发布空间大模型,或解决视频生成时空一致性难题
2025-08-26 14:47:34
企业级OpenClaw最强拍档来了!万亿参数的国产多模态大模型,刚刚开源发布
2026-03-05 19:45:14
阶跃星辰开源GUI Agent技术和4B GUI Agent模型
2025-12-01 15:15:24
李开复:如果十年后回顾 DeepSeek 如何让中国未落后美国,答案是开源
2025-09-27 12:40:23
超越 GPT-5 Nano,阿里通义 Qwen3-VL 系列全新成员 4B 与 8B 模型开源上线
2025-10-15 13:33:22
英伟达开源Newton引擎与GR00T N1.6模型
2025-09-30 08:28:35
睿尔曼开源全球首个高质量、模态数量最多的真机数据集
2025-11-24 20:12:19
腾讯混元推出并开源“混元图像 3.0”,官方称效果能对标业界头部闭源模型
2025-09-28 12:53:03
打破全球语言壁垒:Meta 推出支持 1600 种语言的语音识别系统并开源
2025-11-11 18:20:16
小米全面开源具身大模型MiMo-Embodied
2025-11-21 21:43:50
小米MiMo推出HySparse:面向Agent时代的混合稀疏注意力架构
2026-02-09 14:13:10
小米语音首席科学家:AI发展的本质就像生物进化,不开源要慢1000倍 | MEET2026
2025-12-16 09:28:45
679 文章
478599 浏览
24小时热文
更多
-
2026-03-09 21:13:27 -
2026-03-09 20:09:26 -
2026-03-09 20:09:18