阿里通义千问于1月27日宣布推出Qwen2.5-1M开源模型及推理框架,首次将上下文扩展至100万Tokens。Qwen团队开源了基于vLLM的推理框架,并集成稀疏注意力方法,使处理速度提升3到7倍。Qwen2.5-1M系列模型在长上下文任务中表现出色,尤其在超过64K长度的任务中优于128K版本。此外,Qwen2.5-14B-Instruct-1M模型在多个数据集上超越GPT-4o-mini,而在短文本任务上则与GPT-4o-mini性能相近。模型和详细技术报告现已开放获取。
原文链接
本文链接:https://kx.umi6.com/article/12218.html
转载请注明文章出处
相关推荐
.png)
换一换
开源模型三城记
2025-07-30 10:43:17
开源 AI 模型 TOP5,被中国厂商包圆
2025-10-15 18:39:57
抢跑GPT-5,智谱开源新SOTA模型,一句话搞出能看视频、发弹幕的B站!
2025-07-29 00:21:11
DeepSeek低调宣称小更新,结果用2折价格达到R1水平
2025-03-25 17:07:03
让64张卡像一张卡!浪潮信息发布新一代AI超节点,支持四大国产开源模型同时运行
2025-08-11 16:03:42
一周六连发!昆仑万维将多模态AI卷到了新高度
2025-08-17 18:38:51
“我原以为AI六小虎为大厂探路,没想到连大厂都给DeepSeek探路”
2025-03-24 14:59:17
宇树:开源机器人世界大模型!
2025-09-16 13:11:33
DeepSeek新版R1直追OpenAI o3!实测来了:“小版本升级”着实不小
2025-05-29 11:14:38
Qwen3真香!通义App满血接入,一手实测在此
2025-04-30 19:02:05
DeepSeek终于丢了开源第一王座,但继任者依然来自中国
2025-07-18 17:42:26
单卡搞定万帧视频理解!智源研究院开源轻量级超长视频理解模型Video-XL-2
2025-06-04 14:20:36
杨植麟被梁文锋叫醒了!Kimi新模型发布即开源,1T参数全线SOTA
2025-07-12 13:50:53
525 文章
246652 浏览
24小时热文
更多

-
2025-10-24 01:20:07
-
2025-10-24 00:18:56
-
2025-10-23 21:15:29