1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

元象XVERSE发布中国最大开源MoE模型——XVERSE-MoE-A36B,拥有255B参数,激活参数36B,性能媲美100B模型,训练时间缩短30%,推理性能提升100%,降低每token成本。此模型在多项权威评测中超越Skywork-MoE、Mixtral-8x22B及Grok-1-A86B等模型。

MoE(Mixture of Experts)模型通过组合多个专家模型实现跨级性能跃升,优化训练与推理效率,满足大模型扩展需求。元象XVERSE-MoE-A36B采用4D拓扑架构、高效专家路由与预丢弃策略、多维度通信与计算重叠机制,提升效率。专家权重通过实验对比优化,以实现最佳性能。

数据动态切换与学习率调度策略结合,使得模型在引入新数据时快速学习,持续提高性能。与XVERSE-65B-2相比,XVERSE-MoE-A36B在训练时间、推理性能及模型效果上均表现出色。

元象已将XVERSE-MoE-A36B与先前开源的XVERSE-65B及全球最长上下文窗口大模型纳入其高性能全家桶系列,无条件免费商用,旨在推动AI应用的普及。

基于MoE模型,元象自主研发的AI角色扮演与互动网文APP Saylo广受欢迎。此外,元象大模型已在AI角色、音乐助手、文化娱乐等领域实现商业化应用,与QQ音乐、虎牙直播、全民K歌、腾讯云等企业展开深度合作,为用户提供创新体验。

原文链接
本文链接:https://kx.umi6.com/article/6361.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
阿里巴巴蔡崇信自曝:被 DeepSeek 逼急了,工程师春节睡办公室搞研发
2025-06-12 16:39:43
超越DeepSeek,中国开源「集团军」正重塑全球AI生态
2025-04-28 13:51:06
杭州“六小龙”开源新模型SpatialLM,登HuggingFace趋势榜第二位
2025-03-28 11:42:03
24小时热文
更多
扫一扫体验小程序