
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
元象XVERSE发布中国最大开源MoE模型——XVERSE-MoE-A36B,拥有255B参数,激活参数36B,性能媲美100B模型,训练时间缩短30%,推理性能提升100%,降低每token成本。此模型在多项权威评测中超越Skywork-MoE、Mixtral-8x22B及Grok-1-A86B等...
原文链接
加载更多

暂无内容