综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
1月20日,小米MiMo API平台正式开放充值功能,并计划近期上线计费系统。新老用户可领取专属免费额度,已有用户获得20元赠送余额。国内调用价格为输入0.7元/M tokens,输出2.1元/M tokens,海外则分别为0.1美元和0.3美元/M tokens。国内用户需完成个人实名认证后,可通过小米支付、支付宝或微信支付充值;海外用户无需实名,支持Apple Pay、Google Pay及信用卡支付。MiMo-V2-Flash模型专为智能体AI设计,总参数量309B(活跃参数15B),推理效率高,代码能力媲美Claude 4.5 Sonnet,但成本仅其2.5%,生成速度提升2倍。
原文链接
12月17日,2025小米“人车家全生态”合作伙伴大会在北京召开,聚焦软硬件前沿技术。小米宣布开放MiMo大模型和CarIoT硬件生态,赋能开发者。小米全球月活跃用户达7.42亿,AIoT连接设备数达10.4亿,开发者规模120万。小米汽车累计交付突破50万台,CarIoT已与比亚迪等车企深度合作。集团计划未来五年研发投入2000亿元,持续深耕芯片、OS、AI三大核心技术,推动“人车家全生态”全面繁荣。
原文链接
11月19日,小米公关部总经理王化宣布,2025小米人车家全生态合作伙伴大会将于12月17日举办。届时,新加入小米的MiMo大模型负责人罗福莉将首次公开亮相。罗福莉为“95后”,本科毕业于北京师范大学计算机专业,硕士毕业于北京大学计算语言学专业。她曾任职于阿里巴巴达摩院,主导开发多语言预训练模型VECO,并推动AliceMind开源;2022年加入DeepSeek,参与研发MoE大模型DeepSeek-V2。此次大会或将成为小米AI技术布局的重要展示平台。
原文链接
4月30日,小米开源首个专为推理设计的大模型「Xiaomi MiMo」。在AIME和LiveCodeBench评测中,MiMo仅用7B参数规模,就超越了OpenAI的o1-mini和阿里更大型号QwQ-32B-Preview。MiMo通过预训练和后训练结合的方式提升推理能力,预训练阶段生成约200B tokens推理数据,训练总量达25T tokens;后训练采用创新算法和框架,使RL训练速度提升2.29倍。MiMo已在HuggingFace开源,其技术细节也在GitHub公布。这是小米大模型Core团队的首次尝试,标志着AGI探索的持续努力。
原文链接
4月30日,小米开源首个“为推理而生”的大模型Xiaomi MiMo。该模型由小米大模型Core团队开发,仅用7B参数规模,在数学推理(AIME 24-25)和代码竞赛(LiveCodeBench v5)中超越了OpenAI的o1-mini及阿里Qwen的QwQ-32B-Preview。MiMo的推理能力提升得益于预训练和后训练阶段的数据与算法创新。预训练阶段通过挖掘富推理语料合成200B tokens数据,并进行三阶段训练,总计25T tokens;后训练阶段采用Test Difficulty Driven Reward算法缓解奖励稀疏问题,引入Easy Data Re-Sampling策略稳定RL训练,同时设计Seamless Rollout系统加速RL和验证过程。MiMo已在Hugging Face和GitHub上开源,技术报告同步发布。
原文链接
加载更多
暂无内容