
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
9月5日,月之暗面发布Kimi K2模型最新版本(0905),上下文长度扩展至256K,显著提升复杂任务支持能力。新版本在真实编程任务中表现更优,尤其Agentic Coding能力和前端编程体验均有升级。同时推出高速版API,输出速度达60-100 Token/s,并新增多项功能:Token Enforcer确保格式正确、兼容Anthropic API、支持WebSearch Tool和全自动Context Caching。定价与0711版相同,用户可通过Kimi开放平台或Hugging Face、ModelScope部署模型。
原文链接
8月22日,月之暗面宣布其Kimi K2高速版AI模型输出速度提升至每秒60 Tokens,最高可达每秒100 Tokens。该模型目前享受5折优惠,输入价格(缓存命中)为¥2.00/百万tokens,输出价格为¥32.00/百万tokens,9月1日将恢复原价。Kimi K2高速版于8月1日发布,持续优化性能,为用户提供更高效的AI服务。
原文链接
《科创板日报》6日讯,AI开源社区Hugging Face数据显示,最近一个月中国开源模型受全球开发者热捧。其中,Kimi-K2-Instruct下载量突破40万次,日均1.6万次,位居日均下载量榜首。此外,DeepSeek-V3-0324和DeepSeek-R1-0528的日均下载量也超过1.5万次,表现亮眼。这反映了中国AI模型在全球范围内的影响力持续提升。
原文链接
8月1日,月之暗面发布Kimi K2高速版(Kimi-K2-turbo-preview),输出速度从每秒10 Tokens提升至40 Tokens。新版本限时5折优惠,9月1日恢复原价,折扣后价格为:输入缓存命中2元/百万tokens,未命中8元,输出32元。Kimi K2模型于7月11日推出,支持最长128K上下文,具备更强通用性与工具调用能力,原API计费为输入4元/百万tokens,输出16元/百万tokens。
原文链接
2025年7月,Kimi K2官方技术报告发布,揭示其训练秘籍。该模型采用384个专家、总参数达1万亿,激活参数32B,擅长代码、Agent及数学推理任务,并在上线一周内击败DeepSeek,登顶全球最强开源模型。其核心技术包括MuonClip优化器、大规模Agentic Tool Use数据合成及通用强化学习框架,强调‘用自己的话再讲一遍’的训练方式提升效率。此外,阿里通义Qwen3-235B-A22B-2507版本更新,官方称性能超越Kimi K2,或成新王者。
原文链接
7月13日,Perplexity联合创始人兼CEO Aravind Srinivas宣布,Kimi K2内部评测表现惊艳,即将启动post-training。这一消息使K2在开源社区热度飙升,类似此前纳入DeepSeek-R1时的轰动效应。Perplexity作为AI搜索领域的试炼场,其模型选型注重实时响应与低延迟,而K2凭借MoE架构和高性价比脱颖而出。此外,K2原生Agent能力契合Perplexity“30分钟自主研究”需求,可在单一会话中完成复杂任务。Perplexity从依赖GPT模型逐步转向开源模型自研,如基于Mistral-7B、LLaMA 2等开发pplx系列模型,并通过DeepSeek-R1实现关键跳跃。选择K2是其战略延续,也凸显了开源模型在产业应用中的风向标意义。
原文链接
2025年7月18日,中国开源模型Kimi K2超越DeepSeek,登上全球开源模型排名第一,并在总榜中位列第五,紧追Grok 4等顶尖闭源模型。Kimi K2在多项能力上表现出色,如连续多轮对话、编程能力和复杂提示词应对均位居前列。其在开源社区反响热烈,GitHub标星达5.6K,Hugging Face下载量近10万。尽管Kimi K2基于DeepSeek V3架构,但通过参数优化实现性能提升,被评价为“精打细算”的改进。随着开源模型崛起,‘开源=性能弱’的刻板印象正被打破,行业专家普遍看好开源未来。值得一提的是,全球总榜TOP 10中唯二开源模型均来自中国。
原文链接
2025年7月,Kimi K2超越DeepSeek成为全球开源模型排名第一,总榜第五,紧追Grok 4等顶尖闭源模型。其在连续对话、编程能力等多项指标上表现优异,甚至与闭源模型抗衡。这是继DeepSeek后,再次由中国团队开发的模型登顶开源榜首。Kimi K2发布一周内,GitHub获5.6K星标,Hugging Face下载量近10万,引发广泛关注。尽管采用DeepSeek V3架构,但通过参数优化实现性能提升,被评价为‘大胆’且高效的选择。行业专家认为,开源模型正迅速崛起,逐渐打破‘开源=性能弱’的刻板印象,未来或将在AI发展中扮演关键角色。
原文链接
2025年7月,AI大模型领域迎来新进展。xAI于7月10日发布Grok-4,登顶ScienceQA评测集,得分65.0,超越前代及OpenAI的o3模型,成为SOTA模型,性能与成本优势显著。Moonshot AI于7月11日推出开源Kimi K2模型,参数量达1万亿,在Non-Thinking模式中表现最佳,BoN得分73.0。此外,OpenAI的o3-pro、Google的Gemini 2.5 Pro等主流模型均更新版本,性能小幅提升但成本增加。xbench最新榜单显示,国产模型如DeepSeek、Doubao-Seed-1.6和Kimi K2在性价比和能力上表现出色,为开发者提供更多选择。整体来看,推理模型趋向高分高成本,而部分模型在性能与延迟间实现平衡。更多实时信息可关注xbench.org。
原文链接
7月16日,英国《自然》杂志网站发文称,中国AI模型Kimi K2发布引发全球关注,被称为“又一个DeepSeek时刻”。该模型在编程测试中表现优异,尤其在LiveCodeBench数据集上取得高分,同时展现强大写作能力。这是中国半年内推出的第二款引人注目的AI模型,彰显技术实力。Kimi K2参数规模达万亿级别(1T),采用混合专家架构,每次任务仅激活320亿参数,显著降低算力需求。目前,包括硅谷开源社区在内的全球AI开发者正热议这一模型的突破性进展。(新华社)
原文链接
加载更多

暂无内容