1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
月之暗面 Kimi K2 宣布更新:上下文长度扩展至 256K,带来更快的 API
9月5日,月之暗面发布Kimi K2模型最新版本(0905),上下文长度扩展至256K,显著提升复杂任务支持能力。新版本在真实编程任务中表现更优,尤其Agentic Coding能力和前端编程体验均有升级。同时推出高速版API,输出速度达60-100 Token/s,并新增多项功能:Token Enforcer确保格式正确、兼容Anthropic API、支持WebSearch Tool和全自动Context Caching。定价与0711版相同,用户可通过Kimi开放平台或Hugging Face、ModelScope部署模型。
星际Code流浪者
09-05 12:17:23
Kimi K2
上下文长度
月之暗面
分享至
打开微信扫一扫
内容投诉
生成图片
DeepSeek V3.1 Base突袭上线!击败Claude 4编程爆表,全网在蹲R2和V4
2025年8月21日,DeepSeek官方发布V3.1版本,上下文长度扩展至128k,参数达685B,支持多种精度格式。新版本在编程能力上表现突出,Aider测试中得分71.6%,超越Claude 4 Opus,成本低至1美元。新增原生搜索和特殊Token功能,并优化推理速度和上下文支持。尽管未发布模型卡,V3.1已登上Hugging Face趋势榜第四。实测显示其性能显著提升,但在部分复杂任务上仍有改进空间。网友期待未来R2版本的发布。
AI奇点纪元
08-21 10:27:32
DeepSeek V3.1
上下文长度
编程能力
分享至
打开微信扫一扫
内容投诉
生成图片
实测DeepSeek V3.1,不止拓展上下文长度
2025年8月20日,DeepSeek V3.1发布,主要更新包括上下文长度拓展至128K和支持多种张量格式。实测显示,V3.1在编程能力、情境写作、数学理解、翻译水平等方面均有显著提升。例如,V3.1在处理GIF压缩任务时提供了更全面的代码说明和优化策略;情境写作中,风格从V3的理性转为更具文艺气息的表达;数学题解答逻辑清晰且正确;翻译表现对长难句的理解更强但偶有小失误。此外,V3.1在冷门知识问答中存在争议性回答。网友测试发现其在非推理模型基准上拿下SOTA成绩,性价比高,但部分线上API仍存在问题。目前,V3.1已可在网页端、APP及小程序使用,Base版本可从抱抱脸下载。
虚拟微光
08-20 17:21:15
DeepSeek V3.1
上下文长度
编程能力
分享至
打开微信扫一扫
内容投诉
生成图片
DeepSeek 开源新模型 V3.1:约 685B 参数,上下文长度拓展至 128K
正文:8月20日,DeepSeek在Hugging Face开源新模型V3.1-Base,参数约685B,上下文长度拓展至128K。同日晚些时候,线上模型版本已升级至V3.1,支持官方网页、App、小程序测试,API调用方式保持不变。备受期待的DeepSeek R2仍未确定发布时间。
QuantumHacker
08-20 10:11:16
DeepSeek
V3.1
上下文长度
分享至
打开微信扫一扫
内容投诉
生成图片
DeepSeek 通知线上模型版本升级至 V3.1,上下文长度拓展至 128k
8月19日,DeepSeek官方宣布线上模型版本升级至V3.1,上下文长度扩展至128k。用户可通过官网、App及小程序体验新版功能,API调用方式保持不变。此次更新显著提升了模型处理长文本的能力,适用于长文档分析、代码理解及对话一致性等场景。IT之家提醒,本次更新为常规版本升级,备受期待的DeepSeek R2仍未公布发布时间。
梦境编程师
08-19 21:05:45
DeepSeek
上下文长度
模型升级
分享至
打开微信扫一扫
内容投诉
生成图片
DeepSeek线上模型版本升级至V3.1
《科创板日报》19日讯,记者黄心怡报道,DeepSeek线上模型版本已升级至V3.1,上下文长度拓展至128k。这一更新标志着模型性能和应用能力的进一步提升,为用户提供更高效、精准的服务体验。
小阳哥
08-19 20:04:27
DeepSeek
上下文长度
模型版本
分享至
打开微信扫一扫
内容投诉
生成图片
月之暗面宣布推出新模型Kimi Latest
2月18日,月之暗面宣布推出新模型Kimi Latest,该模型将与Kimi智能助手同步升级。Kimi Latest采用最新的Kimi大模型,上下文长度可达128k,并会根据需要选择8k/32k/128k模型计费。目前,Kimi Latest支持调用Kimi普通版模型,Kimi k1.5长思考模型暂不支持API调用。
量子思考者
02-18 15:35:09
Kimi Latest
上下文长度
智能助手
分享至
打开微信扫一扫
内容投诉
生成图片
Mistral AI 旗下 Codestral 模型获 25.01 更新:支持超 80 种编程语言、上下文长度提至 25.6 万个 Token
Mistral AI于1月17日宣布,其Codestral编程模型更新至25.01版。此次更新显著提升了模型的上下文处理能力,支持高达25.6万个Token,并新增对超过80种编程语言的支持,包括Python、Java、JavaScript等主流语言。新模型在HumanEval各语言测试中的平均准确率达到71.4%,并在Fill-In-the-Middle任务中刷新多项基准测试记录,Pass@1测试平均通过率高达95.3%。
像素宇宙
01-17 23:25:28
Codestral
上下文长度
编程语言
分享至
打开微信扫一扫
内容投诉
生成图片
阿里通义千问发布 Qwen2.5-Turbo 开源 AI 模型:支持 100 万 tokens 上下文,处理时间缩短至 68 秒
11月18日,阿里通义千问发布了Qwen2.5-Turbo开源AI模型,支持高达100万个tokens的上下文长度,处理时间缩短至68秒。相较于先前版本,Qwen2.5-Turbo将上下文长度从12.8万个tokens扩展至100万个tokens,能容纳10部完整小说或150小时的演讲稿。该模型在Passkey检索任务中实现了100%准确率,并在RULER长文本评估中得分93.1,超过GPT-4和GLM4-9B-1M。团队通过引入稀疏注意力机制,大幅提升了处理速度,使得处理100万个tokens的时间从4.9分钟降至68秒,效率提升4.3倍。此外,Qwen2.5-Turbo的处理成本保持在每百万tokens0.3元,处理能力是GPT-4o-mini的3.6倍,展现了其在长上下文处理中的经济性和高效性。尽管如此,团队仍致力于优化模型在真实场景中的表现及降低推理成本。
LunarCoder
11-19 14:52:17
Qwen2.5-Turbo
上下文长度
长文本处理
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序