
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年7月,AI大模型领域迎来新进展。xAI于7月10日发布Grok-4,登顶ScienceQA评测集,得分65.0,超越前代及OpenAI的o3模型,成为SOTA模型,性能与成本优势显著。Moonshot AI于7月11日推出开源Kimi K2模型,参数量达1万亿,在Non-Thinking模式中表现最佳,BoN得分73.0。此外,OpenAI的o3-pro、Google的Gemini 2.5 Pro等主流模型均更新版本,性能小幅提升但成本增加。xbench最新榜单显示,国产模型如DeepSeek、Doubao-Seed-1.6和Kimi K2在性价比和能力上表现出色,为开发者提供更多选择。整体来看,推理模型趋向高分高成本,而部分模型在性能与延迟间实现平衡。更多实时信息可关注xbench.org。
原文链接
7月16日,英国《自然》杂志网站发文称,中国AI模型Kimi K2发布引发全球关注,被称为“又一个DeepSeek时刻”。该模型在编程测试中表现优异,尤其在LiveCodeBench数据集上取得高分,同时展现强大写作能力。这是中国半年内推出的第二款引人注目的AI模型,彰显技术实力。Kimi K2参数规模达万亿级别(1T),采用混合专家架构,每次任务仅激活320亿参数,显著降低算力需求。目前,包括硅谷开源社区在内的全球AI开发者正热议这一模型的突破性进展。(新华社)
原文链接
7月15日,月之暗面回应Kimi K2模型API速度慢问题,称主要原因是访问量大和模型体积大,目前正全力优化推理效率并增加硬件资源,预计几天内速度将明显提升。Kimi K2模型于7月11日正式发布,支持最长128K上下文,具备更强通用性与工具调用能力,API服务已全面上线。计费方案为每百万输入tokens 4元、每百万输出tokens 16元。此外,Kimi K2完全开源,用户可通过其他供应商接入或自行部署。
原文链接
7月15日晚间,月之暗面发布公告回应Kimi K2模型API速度慢的问题,称目前正在全力解决。公司表示,问题主要源于访问量大和模型体积大的双重压力,正在通过优化推理效率、增加硬件设备提升性能。预计未来几天内,API速度将得到明显改善。
原文链接
7月11日,月之暗面发布万亿参数开源模型Kimi K2,基于MoE架构,引发AI领域广泛关注。研发人员在知乎分享幕后故事,揭示K2设计宗旨及技术创新,包括降低训练与推理成本、优化Agent能力等。团队构建大规模自动化数据生产线,并通过开源借助社区力量完善生态。研发人员坦言K2虽有潜力,但仍存不足,未来将通过迭代提升性能。知乎成为开发者分享技术思考的重要平台,此前DeepSeek、智元机器人等也在此发布关键成果。知乎以其技术讨论氛围,推动AI行业交流与创新突破。
原文链接
7月13日,美国AI搜索初创公司Perplexity CEO阿拉温德在社交媒体透露,基于月之暗面Kimi发布的万亿参数开源模型K2的良好表现,公司可能将其用于后训练。K2以代码能力和通用Agent任务能力著称,此前Perplexity曾使用DeepSeek R1进行模型训练。这一动态表明Perplexity持续关注并整合最新AI技术以优化其产品性能。
原文链接
7月13日,美国AI初创公司Perplexity CEO阿拉温德发文称赞月之暗面最新发布的Kimi K2模型,并表示公司可能基于K2进行后训练。Kimi K2是月之暗面推出的首个万亿参数开源模型,强调代码能力和通用Agent任务能力,采用MoE架构,总参数达1T,激活参数32B。该模型在SWE Bench Verified、Tau2、AceBench等基准测试中取得开源模型中的SOTA成绩,展现领先性能。此前,Perplexity曾使用DeepSeek R1进行模型训练。
原文链接
2025年7月12日,Kimi发布全新基础大模型Kimi K2,采用MoE架构,总参数1T,激活参数32B,支持128K上下文。新模型在代码、Agent任务和数学推理等领域表现卓越,创造多项开源SOTA成绩,并同步上线Web端、App及API服务。此次发布即开源,提供两个版本:Kimi-K2-Base与Kimi-K2-Instruct,遵循修改版MIT协议。这是自DeepSeek R1冲击172天后,Kimi的明确回应,表明其坚持自研大模型的决心。Kimi CEO杨植麟以实际行动证明技术领先性,重新回归竞逐AGI初心。
原文链接
7月11日,月之暗面正式发布并开源Kimi K2模型,这是一款基于MoE架构的万亿参数基础模型,激活参数达32B,擅长代码、Agentic任务及数学推理。在多项基准测试中,Kimi K2取得开源模型中的SOTA成绩,尤其在自主编程、工具调用和数学推理等领域表现卓越。预训练阶段采用MuonClip优化器提升训练效率,并解决了高质量数据瓶颈问题。用户可通过官网或Kimi App体验该模型,API服务已上线,支持最长128K上下文,计费为每百万输入tokens 4元、输出tokens 16元。月之暗面同步开源了Kimi-K2-Base和Kimi-K2-Instruct两个版本,分别适用于科研自定义场景与通用指令任务。
原文链接
加载更多

暂无内容