 
        综合
          7*24 快讯
          AI科普
          合作
        全部
          英雄令
          项目方
          开发者
          产品方
          投资者
        
              2025年10月,月之暗面开源全新Kimi Linear架构,首次在相同训练条件下超越传统全注意力模型。该架构通过创新的Kimi Delta Attention(KDA)机制,在长上下文任务中减少75%的KV缓存需求,推理速度提升6倍,同时保持高精度。KDA引入细粒度遗忘门控与改进的增量学习规则,确保超长序列中的稳定性和泛化能力。模型采用3:1混合层设计,结合工程优化,无缝兼容现有Transformer系统。实验表明,Kimi Linear在多项基准测试中全面领先,并在数学推理、代码生成等任务中表现优异。这一突破或预示AI架构正迈向多元创新时代。技术报告已发布于Hugging Face平台。            
            
            原文链接
            
            
          
              1月15日,MiniMax发布并开源了新一代01系列模型(MiniMax-Text-01和MiniMax-VL-01),引入线性注意力机制,支持最多400万个token的上下文输入。MiniMax坚持预训练投入,技术迭代方向为完善复杂coding基础能力和多模态agent能力。MiniMax的01系列模型定价为输入token 1元/百万token,输出token 8元/百万token,表现出较强的竞争力。该模型已在海螺AI应用,显著提升了其通用能力。MiniMax的slogan是与用户共创智能,其大模型每日与全球用户的交互次数达到30亿次,开放平台已在国内拥有超40000家企业与开发者用户。            
            
            原文链接
            
            
          加载更多
        
         
          暂无内容
        .png) 
      
       
       
       
                 
                     
                       
                  .png) 
                   
                 
       
       
         
         
         
       
     
     
  