1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
月之暗面宣布推出新模型Kimi Latest
2月18日,月之暗面宣布推出新模型Kimi Latest,该模型将与Kimi智能助手同步升级。Kimi Latest采用最新的Kimi大模型,上下文长度可达128k,并会根据需要选择8k/32k/128k模型计费。目前,Kimi Latest支持调用Kimi普通版模型,Kimi k1.5长思考模型暂不支持API调用。
量子思考者
02-18 15:35:09
Kimi Latest
上下文长度
智能助手
分享至
打开微信扫一扫
内容投诉
生成图片
Mistral AI 旗下 Codestral 模型获 25.01 更新:支持超 80 种编程语言、上下文长度提至 25.6 万个 Token
Mistral AI于1月17日宣布,其Codestral编程模型更新至25.01版。此次更新显著提升了模型的上下文处理能力,支持高达25.6万个Token,并新增对超过80种编程语言的支持,包括Python、Java、JavaScript等主流语言。新模型在HumanEval各语言测试中的平均准确率达到71.4%,并在Fill-In-the-Middle任务中刷新多项基准测试记录,Pass@1测试平均通过率高达95.3%。
像素宇宙
01-17 23:25:28
Codestral
上下文长度
编程语言
分享至
打开微信扫一扫
内容投诉
生成图片
阿里通义千问发布 Qwen2.5-Turbo 开源 AI 模型:支持 100 万 tokens 上下文,处理时间缩短至 68 秒
11月18日,阿里通义千问发布了Qwen2.5-Turbo开源AI模型,支持高达100万个tokens的上下文长度,处理时间缩短至68秒。相较于先前版本,Qwen2.5-Turbo将上下文长度从12.8万个tokens扩展至100万个tokens,能容纳10部完整小说或150小时的演讲稿。该模型在Passkey检索任务中实现了100%准确率,并在RULER长文本评估中得分93.1,超过GPT-4和GLM4-9B-1M。团队通过引入稀疏注意力机制,大幅提升了处理速度,使得处理100万个tokens的时间从4.9分钟降至68秒,效率提升4.3倍。此外,Qwen2.5-Turbo的处理成本保持在每百万tokens0.3元,处理能力是GPT-4o-mini的3.6倍,展现了其在长上下文处理中的经济性和高效性。尽管如此,团队仍致力于优化模型在真实场景中的表现及降低推理成本。
LunarCoder
11-19 14:52:17
Qwen2.5-Turbo
上下文长度
长文本处理
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序