2024-11-19 14:52:17
阿里通义千问发布 Qwen2.5-Turbo 开源 AI 模型:支持 100 万 tokens 上下文,处理时间缩短至 68 秒
阅读:642
11月18日,阿里通义千问发布了Qwen2.5-Turbo开源AI模型,支持高达100万个tokens的上下文长度,处理时间缩短至68秒。相较于先前版本,Qwen2.5-Turbo将上下文长度从12.8万个tokens扩展至100万个tokens,能容纳10部完整小说或150小时的演讲稿。该模型在Passkey检索任务中实现了100%准确率,并在RULER长文本评估中得分93.1,超过GPT-4和GLM4-9B-1M。团队通过引入稀疏注意力机制,大幅提升了处理速度,使得处理100万个tokens的时间从4.9分钟降至68秒,效率提升4.3倍。此外,Qwen2.5-Turbo的处理成本保持在每百万tokens0.3元,处理能力是GPT-4o-mini的3.6倍,展现了其在长上下文处理中的经济性和高效性。尽管如此,团队仍致力于优化模型在真实场景中的表现及降低推理成本。
原文链接
本文链接:https://kx.umi6.com/article/8937.html
转载请注明文章出处
相关推荐
换一换
美团龙猫LongCat技术升级!新注意力机制解码速度快10倍,还能处理1M超长文本
2026-01-13 13:35:04
OpenAI发布GPT-4.1:开发者“特供”,超越4o,但还没遥遥领先
2025-04-15 15:34:47
Qwen开源首个长文本新模型,百万Tokens处理性能超GPT-4o-mini
2025-01-27 14:30:40
0.5B以小搏大拿下端侧模型新SOTA:4090可跑,长文本处理5倍常规加速丨清华&面壁开源
2025-06-10 16:50:15
阿里通义千问发布 Qwen2.5-Turbo 开源 AI 模型:支持 100 万 tokens 上下文,处理时间缩短至 68 秒
2024-11-19 14:52:17
实测DeepSeek V3.1,不止拓展上下文长度
2025-08-20 17:21:15
LG 发布 EXAONE 3.5 开源 AI 模型:长文本处理利器、独特技术有效降低“幻觉”
2024-12-11 09:21:31
DeepSeek 开源新模型 V3.1:约 685B 参数,上下文长度拓展至 128K
2025-08-20 10:11:16
DeepSeek线上模型版本升级至V3.1
2025-08-19 20:04:27
月之暗面宣布推出新模型Kimi Latest
2025-02-18 15:35:09
月之暗面 Kimi K2 宣布更新:上下文长度扩展至 256K,带来更快的 API
2025-09-05 12:17:23
DeepSeek下一代技术提前曝光
2025-07-31 09:02:46
Qwen2.5更新百万超长上下文,推理速度4.3倍加速,网友:RAG要过时了
2024-11-19 13:44:15
645 文章
433061 浏览
24小时热文
更多
-
2026-01-23 00:20:44 -
2026-01-22 23:18:34 -
2026-01-22 23:17:29