
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
阿里云于1月29日宣布其通义千问Qwen 2.5-Max超大规模MoE模型在多项基准测试中超越DeepSeek V3等对手。Qwen2.5-Max在Chatbot Arena盲测中以1332分位列全球第七,成为非推理类中国大模型冠军。尤其在数学和编程能力上,Qwen2.5-Max排名榜首,硬提示方面排名第二。Chatbot Arena由LMSYS Org推出,是业界公认最公正权威的大模型榜单之一。阿里云表示,Qwen2.5-Max在Arena-Hard、LiveBench、LiveCodeBench等测试中表现优异,几乎全面超越GPT-4o、DeepSeek-V3及Llama-3.1-405B。
原文链接
阿里云于1月29日发布了全新超大规模MoE模型通义千问Qwen 2.5-Max。该模型采用超过20万亿token的预训练数据及后训练方案。据阿里云公布的数据,在Arena-Hard、LiveBench等基准测试中,Qwen 2.5-Max的表现优于DeepSeek V3,并在MMLU-Pro等评估中展现出竞争力。此外,在基座模型对比中,Qwen 2.5-Max在多数基准测试中优于DeepSeek V3、Llama-3.1-405B等开源模型。Qwen 2.5-Max尚未开源。
原文链接
加载更多

暂无内容