1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

阿里云于1月29日发布了全新超大规模MoE模型通义千问Qwen 2.5-Max。该模型采用超过20万亿token的预训练数据及后训练方案。据阿里云公布的数据,在Arena-Hard、LiveBench等基准测试中,Qwen 2.5-Max的表现优于DeepSeek V3,并在MMLU-Pro等评估中展现出竞争力。此外,在基座模型对比中,Qwen 2.5-Max在多数基准测试中优于DeepSeek V3、Llama-3.1-405B等开源模型。Qwen 2.5-Max尚未开源。

原文链接
本文链接:https://kx.umi6.com/article/12319.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
DeepSeek终于丢了开源第一王座,但继任者依然来自中国
2025-07-18 17:42:26
通义千问 Qwen 2.5-Max 超大规模 MoE 模型号称优于 Deepseek V3 等竞品,暂未开源
2025-01-29 03:58:28
字节对MoE模型训练成本再砍一刀 成本可节省40%
2025-03-10 17:52:30
国产AI大模型之光DeepSeek把AI大佬全炸出来了!6710亿参数训练只需1/10算力
2024-12-27 14:05:57
阿里除夕发布Qwen2.5-Max反超DeepSeek V3,一句话开发小游戏
2025-01-29 12:07:57
中国最大开源MoE模型,255B参数无条件免费商用,元象发布
2024-09-15 22:56:05
中信证券:DeepSeek V3发布,加速AI应用落地
2024-12-30 09:14:50
KTransformers入选计算机系统顶会、与主流框架合作,趋境&清华让「异构」成为推理新范式
2025-10-23 10:01:08
华为:让DeepSeek的“专家们”动起来,推理延迟降10%!
2025-05-20 14:38:41
DeepSeek V3 引发AI路径之辩:从“鹦鹉学舌”到“乌鸦喝水”?
2025-01-02 11:15:16
猎豹移动发布全新AI数据宝和MoE模型,傅盛:明年将是AI应用繁荣的一年
2024-11-28 14:31:52
MiniMax闫俊杰对话黄明明:AGI,只有一条最难但唯一的道路
2024-06-20 18:35:57
DeepSeek 开源进度 2/5:首个用于 MoE 模型训练和推理的 EP 通信库 DeepEP
2025-02-25 11:53:00
24小时热文
更多
扫一扫体验小程序