1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
Grok-4登顶,Kimi K2非思考模型SOTA
2025年7月,AI大模型领域迎来新进展。xAI于7月10日发布Grok-4,登顶ScienceQA评测集,得分65.0,超越前代及OpenAI的o3模型,成为SOTA模型,性能与成本优势显著。Moonshot AI于7月11日推出开源Kimi K2模型,参数量达1万亿,在Non-Thinking模式中表现最佳,BoN得分73.0。此外,OpenAI的o3-pro、Google的Gemini 2.5 Pro等主流模型均更新版本,性能小幅提升但成本增加。xbench最新榜单显示,国产模型如DeepSeek、Doubao-Seed-1.6和Kimi K2在性价比和能力上表现出色,为开发者提供更多选择。整体来看,推理模型趋向高分高成本,而部分模型在性能与延迟间实现平衡。更多实时信息可关注xbench.org。
Nebula
07-18 12:38:47
Grok-4
Kimi K2
ScienceQA
分享至
打开微信扫一扫
内容投诉
生成图片
《自然》网站:中国AI模型“又一个DeepSeek时刻”
7月16日,英国《自然》杂志网站发文称,中国AI模型Kimi K2发布引发全球关注,被称为“又一个DeepSeek时刻”。该模型在编程测试中表现优异,尤其在LiveCodeBench数据集上取得高分,同时展现强大写作能力。这是中国半年内推出的第二款引人注目的AI模型,彰显技术实力。Kimi K2参数规模达万亿级别(1T),采用混合专家架构,每次任务仅激活320亿参数,显著降低算力需求。目前,包括硅谷开源社区在内的全球AI开发者正热议这一模型的突破性进展。(新华社)
蝶舞CyberSwirl
07-17 15:30:35
DeepSeek时刻
Kimi K2
中国AI模型
分享至
打开微信扫一扫
内容投诉
生成图片
月之暗面回应 Kimi K2 模型 API 速度慢:正在优化推理效率,也在加卡加机器
7月15日,月之暗面回应Kimi K2模型API速度慢问题,称主要原因是访问量大和模型体积大,目前正全力优化推理效率并增加硬件资源,预计几天内速度将明显提升。Kimi K2模型于7月11日正式发布,支持最长128K上下文,具备更强通用性与工具调用能力,API服务已全面上线。计费方案为每百万输入tokens 4元、每百万输出tokens 16元。此外,Kimi K2完全开源,用户可通过其他供应商接入或自行部署。
LunarCoder
07-15 20:49:00
API 速度优化
Kimi K2 模型
月之暗面
分享至
打开微信扫一扫
内容投诉
生成图片
月之暗面回应Kimi K2模型API速度慢:正在解决中 也在加卡加机器
7月15日晚间,月之暗面发布公告回应Kimi K2模型API速度慢的问题,称目前正在全力解决。公司表示,问题主要源于访问量大和模型体积大的双重压力,正在通过优化推理效率、增加硬件设备提升性能。预计未来几天内,API速度将得到明显改善。
Oasis
07-15 19:48:46
API速度
Kimi K2模型
月之暗面
分享至
打开微信扫一扫
内容投诉
生成图片
万亿参数Kimi K2开源,月之暗面研发工程师知乎亲述幕后故事
7月11日,月之暗面发布万亿参数开源模型Kimi K2,基于MoE架构,引发AI领域广泛关注。研发人员在知乎分享幕后故事,揭示K2设计宗旨及技术创新,包括降低训练与推理成本、优化Agent能力等。团队构建大规模自动化数据生产线,并通过开源借助社区力量完善生态。研发人员坦言K2虽有潜力,但仍存不足,未来将通过迭代提升性能。知乎成为开发者分享技术思考的重要平台,此前DeepSeek、智元机器人等也在此发布关键成果。知乎以其技术讨论氛围,推动AI行业交流与创新突破。
未来笔触
07-15 10:40:09
Kimi K2
月之暗面
知乎
分享至
打开微信扫一扫
内容投诉
生成图片
Perplexity CEO表示或将利用Kimi K2进行后训练
7月13日,美国AI搜索初创公司Perplexity CEO阿拉温德在社交媒体透露,基于月之暗面Kimi发布的万亿参数开源模型K2的良好表现,公司可能将其用于后训练。K2以代码能力和通用Agent任务能力著称,此前Perplexity曾使用DeepSeek R1进行模型训练。这一动态表明Perplexity持续关注并整合最新AI技术以优化其产品性能。
小阳哥
07-13 15:04:56
Kimi K2
Perplexity
后训练
分享至
打开微信扫一扫
内容投诉
生成图片
Perplexity CEO 称赞月之暗面,希望基于 Kimi K2 进行后训练
7月13日,美国AI初创公司Perplexity CEO阿拉温德发文称赞月之暗面最新发布的Kimi K2模型,并表示公司可能基于K2进行后训练。Kimi K2是月之暗面推出的首个万亿参数开源模型,强调代码能力和通用Agent任务能力,采用MoE架构,总参数达1T,激活参数32B。该模型在SWE Bench Verified、Tau2、AceBench等基准测试中取得开源模型中的SOTA成绩,展现领先性能。此前,Perplexity曾使用DeepSeek R1进行模型训练。
量子思考者
07-13 15:03:51
Kimi K2
Perplexity
月之暗面
分享至
打开微信扫一扫
内容投诉
生成图片
杨植麟被梁文锋叫醒了!Kimi新模型发布即开源,1T参数全线SOTA
2025年7月12日,Kimi发布全新基础大模型Kimi K2,采用MoE架构,总参数1T,激活参数32B,支持128K上下文。新模型在代码、Agent任务和数学推理等领域表现卓越,创造多项开源SOTA成绩,并同步上线Web端、App及API服务。此次发布即开源,提供两个版本:Kimi-K2-Base与Kimi-K2-Instruct,遵循修改版MIT协议。这是自DeepSeek R1冲击172天后,Kimi的明确回应,表明其坚持自研大模型的决心。Kimi CEO杨植麟以实际行动证明技术领先性,重新回归竞逐AGI初心。
AGI探路者
07-12 13:50:53
Kimi K2
SOTA
开源模型
分享至
打开微信扫一扫
内容投诉
生成图片
月之暗面 Kimi K2 发布并开源,擅长代码与 Agentic 任务
7月11日,月之暗面正式发布并开源Kimi K2模型,这是一款基于MoE架构的万亿参数基础模型,激活参数达32B,擅长代码、Agentic任务及数学推理。在多项基准测试中,Kimi K2取得开源模型中的SOTA成绩,尤其在自主编程、工具调用和数学推理等领域表现卓越。预训练阶段采用MuonClip优化器提升训练效率,并解决了高质量数据瓶颈问题。用户可通过官网或Kimi App体验该模型,API服务已上线,支持最长128K上下文,计费为每百万输入tokens 4元、输出tokens 16元。月之暗面同步开源了Kimi-K2-Base和Kimi-K2-Instruct两个版本,分别适用于科研自定义场景与通用指令任务。
新智燎原
07-11 23:44:58
Kimi K2
开源
月之暗面
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序