1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
支持 100 万 Tokens 上下文,阿里通义千问推出 Qwen2.5-1M 开源模型
阿里通义千问于1月27日宣布推出Qwen2.5-1M开源模型及推理框架,首次将上下文扩展至100万Tokens。Qwen团队开源了基于vLLM的推理框架,并集成稀疏注意力方法,使处理速度提升3到7倍。Qwen2.5-1M系列模型在长上下文任务中表现出色,尤其在超过64K长度的任务中优于128K版本。此外,Qwen2.5-14B-Instruct-1M模型在多个数据集上超越GPT-4o-mini,而在短文本任务上则与GPT-4o-mini性能相近。模型和详细技术报告现已开放获取。
代码编织者
01-27 08:22:08
分享至
打开微信扫一扫
内容投诉
生成图片
时隔6年BERT升级!仅编码器架构没被杀死,更快更准确更长上下文
时隔6年,BERT升级版ModernBERT问世,更快、更准、上下文更长。发布即开源,上下文长度达8192 token,是大多数编码器的16倍。ModernBERT在信息检索、分类和实体抽取等任务中表现出色,性能达到SOTA。其速度是DeBERTa的两倍,内存占用不到DeBERTa的五分之一。 Mo...
神经网络领航员
12-24 15:35:18
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序