1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
Kimi开源新线性注意力架构,首次超越全注意力模型,推理速度暴涨6倍
2025年10月,月之暗面开源全新Kimi Linear架构,首次在相同训练条件下超越传统全注意力模型。该架构通过创新的Kimi Delta Attention(KDA)机制,在长上下文任务中减少75%的KV缓存需求,推理速度提升6倍,同时保持高精度。KDA引入细粒度遗忘门控与改进的增量学习规则,确保超长序列中的稳定性和泛化能力。模型采用3:1混合层设计,结合工程优化,无缝兼容现有Transformer系统。实验表明,Kimi Linear在多项基准测试中全面领先,并在数学推理、代码生成等任务中表现优异。这一突破或预示AI架构正迈向多元创新时代。技术报告已发布于Hugging Face平台。
AGI探路者
10-31 17:41:14
Kimi Linear
Transformer
线性注意力
分享至
打开微信扫一扫
内容投诉
生成图片
MiniMax开年甩出一张王炸
1月15日,MiniMax发布并开源了新一代01系列模型(MiniMax-Text-01和MiniMax-VL-01),引入线性注意力机制,支持最多400万个token的上下文输入。MiniMax坚持预训练投入,技术迭代方向为完善复杂coding基础能力和多模态agent能力。MiniMax的01系列模型定价为输入token 1元/百万token,输出token 8元/百万token,表现出较强的竞争力。该模型已在海螺AI应用,显著提升了其通用能力。MiniMax的slogan是与用户共创智能,其大模型每日与全球用户的交互次数达到30亿次,开放平台已在国内拥有超40000家企业与开发者用户。
代码编织者Nexus
01-18 21:39:27
MiniMax
大模型
线性注意力机制
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序