1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
小米MiMo大模型首次推出Token Plan,单次订阅可满足全模态Agent任务需求
4月3日,小米推出MiMo大模型首个Token Plan,面向开发者和AI爱好者提供四档订阅方案:Lite(¥39/月)、Standard(¥99/月)、Pro(¥329/月)、Max(¥659/月),首购享88折优惠。该计划支持调用MiMo-V2-Pro、MiMo-V2-Omni和MiMo-V2-TTS三大模型,满足全模态Agent任务需求。与行业普遍规则不同,MiMo Token Plan采用统一Credit点数透明计费,无5小时token使用限制,适合高强度用户。此前,MiMo-V2-Pro在OpenRouter平台周token消耗量突破4万亿,上线半月即登顶日榜、周榜、月榜第一,展现强劲性能。
代码编织者
04-03 14:21:37
分享至
打开微信扫一扫
内容投诉
生成图片
小米MiMo大模型负责人罗福莉:AI通过“自进化”创造新东西
2026年3月27日,在中关村论坛年会的AI开源前沿论坛上,小米MiMo大模型负责人罗福莉表示,AI‘自进化’可能成为未来趋势。她指出,过去被认为需要3-5年才能实现的‘自进化’,现在预计1-2年内即可完成。这一进展有望推动学术研究实现指数级加速,为科学研究带来革命性变化。罗福莉的发言揭示了AI技术快速发展的新方向,展现了技术进步的时效性与前瞻性。
数码游侠
03-27 17:14:18
分享至
打开微信扫一扫
内容投诉
生成图片
小米MiMo推出HySparse:面向Agent时代的混合稀疏注意力架构
2026年2月9日,小米MiMo团队推出面向Agent时代的混合稀疏注意力架构HySparse,采用“极少全注意力+稀疏注意力”设计,为超长文本处理提供高效解决方案。随着Agent模型快速发展,精准处理超长上下文成为关键挑战,不仅需稳定检索与推理,还需快速响应。HySparse在7B和80B模型规模中均表现优异,在80B-A3BMoE实验中,仅保留5层全注意力即可提升性能并降低KV Cache存储近10倍。RULER测试显示其能稳定访问长距离信息,兼顾效果与效率。该架构是MiMo-V2-Flash的升级版,兼容且互补,未增加计算开销。小米MiMo计划进一步验证其潜力,推动学术与工业界研究。
AI幻想空间站
02-09 14:13:10
分享至
打开微信扫一扫
内容投诉
生成图片
小米 MiMo 模型 API 平台开放充值功能:输入 0.7 元 / M tokens,新老用户可领取免费额度
1月20日,小米MiMo API平台正式开放充值功能,并计划近期上线计费系统。新老用户可领取专属免费额度,已有用户获得20元赠送余额。国内调用价格为输入0.7元/M tokens,输出2.1元/M tokens,海外则分别为0.1美元和0.3美元/M tokens。国内用户需完成个人实名认证后,可通过小米支付、支付宝或微信支付充值;海外用户无需实名,支持Apple Pay、Google Pay及信用卡支付。MiMo-V2-Flash模型专为智能体AI设计,总参数量309B(活跃参数15B),推理效率高,代码能力媲美Claude 4.5 Sonnet,但成本仅其2.5%,生成速度提升2倍。
AI幻想空间站
01-20 18:21:55
分享至
打开微信扫一扫
内容投诉
生成图片
小米首个推理大模型开源
4月30日,小米开源首个专为推理设计的大模型「Xiaomi MiMo」。在AIME和LiveCodeBench评测中,MiMo仅用7B参数规模,就超越了OpenAI的o1-mini和阿里更大型号QwQ-32B-Preview。MiMo通过预训练和后训练结合的方式提升推理能力,预训练阶段生成约200B tokens推理数据,训练总量达25T tokens;后训练采用创新算法和框架,使RL训练速度提升2.29倍。MiMo已在HuggingFace开源,其技术细节也在GitHub公布。这是小米大模型Core团队的首次尝试,标志着AGI探索的持续努力。
数据炼金师
04-30 20:36:34
分享至
打开微信扫一扫
内容投诉
生成图片
小米开源“Xiaomi MiMo”大模型:为推理而生,以 7B 参数超越 OpenAI o1-mini
4月30日,小米开源首个“为推理而生”的大模型Xiaomi MiMo。该模型由小米大模型Core团队开发,仅用7B参数规模,在数学推理(AIME 24-25)和代码竞赛(LiveCodeBench v5)中超越了OpenAI的o1-mini及阿里Qwen的QwQ-32B-Preview。MiMo的推理能力提升得益于预训练和后训练阶段的数据与算法创新。预训练阶段通过挖掘富推理语料合成200B tokens数据,并进行三阶段训练,总计25T tokens;后训练阶段采用Test Difficulty Driven Reward算法缓解奖励稀疏问题,引入Easy Data Re-Sampling策略稳定RL训练,同时设计Seamless Rollout系统加速RL和验证过程。MiMo已在Hugging Face和GitHub上开源,技术报告同步发布。
AI创想团
04-30 19:37:14
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序