
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
10月11日,美国“SPAC之王”查马斯宣布,其公司已将大量工作需求转移至中国开发的Kimi K2模型。他指出,K2不仅性能卓越,且成本远低于OpenAI和Anthropic等美国公司的产品。查马斯认为,由中国引领的开源模型正在挑战美国闭源模型的市场主导地位,这一转变或将对全球人工智能领域产生深远影响。(财联社、36氪)
原文链接
实测Kimi全新Agent模型「OK Computer」,很OK
闻乐 发自 凹非寺
量子位 | 公众号 QbitAI
Kimi推出全新Agent模型——OK Computer!这款基于Kimi K2的模型功能强大,能搭建网站、制作PPT,甚至处理百万行数据生成交互式仪表板。名字听起来还有点...
原文链接
9月25日,月之暗面Kimi发布全新Agent模式OK Computer,并启动灰度测试。该模式基于“模型即Agent”理念,通过端到端训练Kimi K2模型,进一步提升智能体性能及工具调用能力。这一更新体现了技术迭代的新进展,或为用户提供更高效、智能化的服务体验。
原文链接
9月25日,月之暗面Kimi发布全新Agent模式OK Computer并启动灰度测试。该模式基于Kimi K2模型,延续“模型即Agent”理念,强化智能体与工具调用能力,可完成网站开发、数据分析、图片视频生成及PPT制作等复杂任务。曾打赏过Kimi的用户将获首批体验资格。Kimi K2模型于7月11日发布,采用MoE架构,总参数达1T,激活参数32B,在代码能力、工具调用和数学推理等方面表现优异。
原文链接
《科创板日报》16日讯,Kimi开放平台宣布Kimi K2官方高速版API开启限时一个月的5折特惠活动。高速版API型号为kimi-k2-turbo-preview,与kimi-k2-0905参数一致,并支持256K上下文。其输出速度高达60~100Token/s,是普通版的6倍左右。此次优惠为用户提供了更高效的模型使用体验,活动截止时间尚未公布,需及时关注官方动态。
原文链接
Kimi开源新突破:20秒更新万亿参数的中间件问世
Kimi开源再次带来惊喜!最新发布的中间件“checkpoint-engine(检查点引擎)”,让Kimi K2模型在数千个GPU上仅需约20秒即可完成1万亿参数的更新,进入“秒更时代”。
该中间件专为强化学习设计,优化了大语言模型推理中的权重更新...
原文链接
9月5日,月之暗面发布Kimi K2模型最新版本(0905),上下文长度扩展至256K,显著提升复杂任务支持能力。新版本在真实编程任务中表现更优,尤其Agentic Coding能力和前端编程体验均有升级。同时推出高速版API,输出速度达60-100 Token/s,并新增多项功能:Token Enforcer确保格式正确、兼容Anthropic API、支持WebSearch Tool和全自动Context Caching。定价与0711版相同,用户可通过Kimi开放平台或Hugging Face、ModelScope部署模型。
原文链接
在最近的一项基准测试中,7个AI模型进行了210场狼人杀游戏,GPT-5以96.7%的胜率断崖式领先,展现卓越的操纵与防御能力。国产模型Qwen3和Kimi-K2分别位列第4和第6,其中Kimi-K2表现出大胆激进的风格,甚至通过‘悍跳’扭转局势。测试通过Elo评分和多项指标量化模型表现,揭示了强弱模型间的显著差异。此外,GPT-5在其他基准测试中也大幅超越GPT-4,例如在Level 5 MATH上得分从23%提升至98%。研究指出,该测试不仅评估AI解决逻辑问题的能力,还探索其在社交动态中的行为模式,为未来复杂社会互动模拟奠定基础。目前,团队正寻求合作以扩展研究规模。
原文链接
8月24日,Kimi鸿蒙版App通过集成华为仓颉Markdown解析引擎,大幅提升性能。今年3月推出全功能鸿蒙版后,Kimi优化了长对话渲染性能。此前因Markdown解析耗时长,线上故障率达千分之二,主要表现为卡顿。通过采用仓颉社区的commonmark4cj、formula-ffi和prism4cj库,Kimi滑动帧率提升至2.4倍,数学公式解析效率提升34倍,代码块染色性能提高2倍以上。目前,仓颉社区已收录超140个三方库,支持多种功能需求,为开发者提供高性能工具。
原文链接
8月22日,月之暗面宣布其Kimi K2高速版AI模型输出速度提升至每秒60 Tokens,最高可达每秒100 Tokens。该模型目前享受5折优惠,输入价格(缓存命中)为¥2.00/百万tokens,输出价格为¥32.00/百万tokens,9月1日将恢复原价。Kimi K2高速版于8月1日发布,持续优化性能,为用户提供更高效的AI服务。
原文链接
加载更多

暂无内容