1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

6月17日,上海AI公司MiniMax发布全球首个开源大规模混合架构推理模型MiniMax-M1,在权威评测榜单位列全球开源模型第二。M1支持100万token上下文输入,输出长度达8万token,性能和性价比均表现突出。此后4个工作日,MiniMax接连推出视频生成模型Hailuo 02、智能体产品及音色设计工具。Hailuo 02在物理世界规律理解方面表现出色,生成的“猫跳水”视频动作逻辑清晰,已在Instagram获3亿流量。MiniMax坚持基座模型研发,采用MoE架构、线性注意力机制及CISPO强化学习方法,实现高效能低成本突破。作为大模型‘上海队’一员,MiniMax与商汤、阶跃星辰等共同推动AI产业发展。

原文链接
本文链接:https://kx.umi6.com/article/21109.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
阿里开源电影级视频生成模型通义万相2.2
2025-07-28 21:20:36
DeepSeek有四点我蛮佩服
2025-01-25 15:58:57
Kimi 16B胜GPT-4o!开源视觉推理模型:MoE架构,推理时仅激活2.8B
2025-04-10 13:47:48
业界首个:腾讯混元-A13B 模型发布并开源,极端条件 1 张中低端 GPU 卡即可部署
2025-06-27 17:10:33
MiniMax 推出全球首个开源大规模混合架构的推理模型 M1:456B 参数,性能超 DeepSeek-R1
2025-06-17 17:28:14
腾讯发布并开源混元-A13B模型:极端条件仅1张中低端GPU卡即可部署
2025-06-27 17:17:05
Llama 4发布:我看到了DeepSeek的影子
2025-04-06 16:06:56
上海AI公司开源模型登上全球第二
2025-07-03 07:50:43
专用于法律的两个开源大模型,最高1410亿参数
2024-09-11 16:28:58
豆包1.5 Pro重磅更新!7倍MoE性能杠杆,“不使用任何其他模型数据”
2025-01-22 23:05:37
拳打可灵,脚踢 Veo 3,谁是物理世界的「懂王」?
2025-06-20 17:04:19
MiniMax发布全球首个混合架构开源模型M1 称强化训练成本仅53万美金
2025-06-17 19:29:56
字节跳动豆包大模型团队开源MoE架构优化技术,训练成本节省40%
2025-03-10 18:50:46
24小时热文
更多
扫一扫体验小程序