阿里云于1月29日发布了全新超大规模MoE模型通义千问Qwen 2.5-Max。该模型采用超过20万亿token的预训练数据及后训练方案。据阿里云公布的数据,在Arena-Hard、LiveBench等基准测试中,Qwen 2.5-Max的表现优于DeepSeek V3,并在MMLU-Pro等评估中展现出竞争力。此外,在基座模型对比中,Qwen 2.5-Max在多数基准测试中优于DeepSeek V3、Llama-3.1-405B等开源模型。Qwen 2.5-Max尚未开源。
原文链接
本文链接:https://kx.umi6.com/article/12319.html
转载请注明文章出处
相关推荐
换一换
全球第一:阿里云宣布通义千问 Qwen2.5-Max 数学及编程能力登顶最新 AI 大模型榜单
2025-02-05 19:13:15
DeepSeek 丢了开源第一王座,但继任者“Kimi K2”依然来自中国
2025-07-18 18:42:56
DeepSeek 开源进度 2/5:首个用于 MoE 模型训练和推理的 EP 通信库 DeepEP
2025-02-25 11:53:00
DeepSeek V3“报错家门”:我是ChatGPT
2024-12-29 12:50:27
KTransformers入选计算机系统顶会、与主流框架合作,趋境&清华让「异构」成为推理新范式
2025-10-23 10:01:08
DeepSeek V3 和 R1 模型完成海光 DCU 国产化适配并正式上线
2025-02-04 14:35:48
被认为国产AI之光的DeepSeek V3出糗:居然自称是ChatGPT
2024-12-30 01:03:43
DeepSeek扔的第二枚开源王炸到底是什么?
2025-02-25 20:07:11
华为:让DeepSeek的“专家们”动起来,推理延迟降10%!
2025-05-20 14:38:41
中信证券:DeepSeek V3发布,加速AI应用落地
2024-12-30 09:14:50
DeepSeek V3 引发AI路径之辩:从“鹦鹉学舌”到“乌鸦喝水”?
2025-01-02 11:15:16
阿里除夕发布Qwen2.5-Max反超DeepSeek V3,一句话开发小游戏
2025-01-29 12:07:57
DeepSeek V3获竞技场最强开源认证!与Claude 3.5 Sonnet实测来了
2024-12-31 13:41:29
623 文章
366914 浏览
24小时热文
更多
-
2025-12-08 19:45:13 -
2025-12-08 19:43:05 -
2025-12-08 18:41:52