1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

11月18日,阿里通义千问发布了Qwen2.5-Turbo开源AI模型,支持高达100万个tokens的上下文长度,处理时间缩短至68秒。相较于先前版本,Qwen2.5-Turbo将上下文长度从12.8万个tokens扩展至100万个tokens,能容纳10部完整小说或150小时的演讲稿。该模型在Passkey检索任务中实现了100%准确率,并在RULER长文本评估中得分93.1,超过GPT-4和GLM4-9B-1M。团队通过引入稀疏注意力机制,大幅提升了处理速度,使得处理100万个tokens的时间从4.9分钟降至68秒,效率提升4.3倍。此外,Qwen2.5-Turbo的处理成本保持在每百万tokens0.3元,处理能力是GPT-4o-mini的3.6倍,展现了其在长上下文处理中的经济性和高效性。尽管如此,团队仍致力于优化模型在真实场景中的表现及降低推理成本。

原文链接
本文链接:https://kx.umi6.com/article/8937.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
机器人走出实验室:成都今日启动首批智能机器人实景验证活动
2025-06-16 12:08:01
挑山工后继有“人”?宇树四足机器人挑战肩挑重物爬泰山
2024-10-21 14:31:01
春节档AI“抢戏”!华为、字节加入 科技巨头鏖战AI智能体
2025-01-28 15:51:27
24小时热文
更多
扫一扫体验小程序