阿里通义千问于1月27日宣布推出Qwen2.5-1M开源模型及推理框架,首次将上下文扩展至100万Tokens。Qwen团队开源了基于vLLM的推理框架,并集成稀疏注意力方法,使处理速度提升3到7倍。Qwen2.5-1M系列模型在长上下文任务中表现出色,尤其在超过64K长度的任务中优于128K版本。此外,Qwen2.5-14B-Instruct-1M模型在多个数据集上超越GPT-4o-mini,而在短文本任务上则与GPT-4o-mini性能相近。模型和详细技术报告现已开放获取。
原文链接
本文链接:https://kx.umi6.com/article/12218.html
转载请注明文章出处
相关推荐
换一换
腾讯混元 3D 开源 + 2:瞄准游戏建模、3D 打印
2025-09-26 19:32:11
Moltbot作者被Claude刁难后:MiniMax M2.1是最优秀的开源模型
2026-01-29 14:21:07
在史上最大规模WAIC中寻找DeepSeek
2025-07-28 09:10:59
月之暗面 Kimi K2 Thinking 训练成本被曝仅 460 万美元,性能超越数十亿美元投入的 OpenAI GPT 模型
2025-11-08 15:49:04
最强3B「小钢炮」,代码数据全公开!推理随意开关,128k超长上下文
2025-07-11 11:34:58
阿里千问3推理模型更新 比肩Gemini-2.5 pro、o4-mini
2025-07-25 19:28:30
华为盘古 Ultra-MoE-718B-V1.1 正式开源并开放下载,模型权重与技术细节全面公开
2025-10-16 17:57:55
OpenAI开源两款gpt-oss系列推理大模型 能力接近o3和o4-mini
2025-08-06 11:30:27
老黄入局吃龙虾!英伟达发布最强开源Agent推理模型
2026-03-12 13:36:30
最强Coding Plan上线!阿里云上线Qwen3.5、GLM-5、MiniMax M2.5、Kimi K2.5四大顶尖开源模型
2026-02-25 13:16:58
字节突然开源Seed-OSS,512K上下文主流4倍长度,推理能力刷纪录
2025-08-21 14:33:12
DeepSeek 丢了开源第一王座,但继任者“Kimi K2”依然来自中国
2025-07-18 18:42:56
腾讯混元 0.5B、1.8B、4B、7B 模型开源发布,消费级显卡即可运行
2025-08-04 15:58:47
674 文章
544414 浏览
24小时热文
更多
-
2026-04-24 19:29:38 -
2026-04-24 18:31:29 -
2026-04-24 18:30:24