1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
MiniMax刘华:构建多模态开源生态,研发不再围绕稠密架构
2月21-23日,2025全球开发者先锋大会在上海召开。MiniMax副总裁刘华分享了多模态大模型发展的见解。他指出,尽管Transformer架构推动了大语言模型的发展,但处理长文本时算力消耗呈平方关系增长。未来,MiniMax将转向稀疏架构和非Transformer架构的研究,以降低算力消耗。2024年OpenAI推出的Sora和GPT4o展示了视频、语音模型的新能力,大模型在未来两到三年内仍有重大突破可能。MiniMax将致力于构建多模态开源生态,以精细研发团队提升技术上限。
AI思维矩阵
02-23 16:00:51
Transformer架构
多模态大模型
稀疏架构
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序