2026年1月,英伟达联合Astera研究所、斯坦福大学等推出开源大模型记忆压缩方案TTT-E2E。该方法基于动态学习路径,通过实时压缩上下文信息到模型权重中,避免额外缓存需求,在128K上下文处理速度上比全注意力模型快2.7倍,2M上下文提速35倍且性能无损。其核心是将长文本建模转化为持续学习任务,采用元学习优化训练与测试的端到端对齐,并设计三项关键优化(迷你批处理+滑动窗口、精准更新策略、双MLP设计)。实验显示,TTT-E2E在3B参数模型中的表现优于同类模型,推理延迟恒定,适合高效处理超长文本。不过,其在细节召回任务中表现稍逊,且元学习训练较慢。目前代码与论文已开源,项目负责人Stanford博士后Yu Sun主导开发。
原文链接
本文链接:https://kx.umi6.com/article/31613.html
转载请注明文章出处
相关推荐
换一换
业界首个:英伟达发布专注于自动驾驶的视觉语言动作模型 Alpamayo-R1
2025-12-02 07:58:16
英伟达黄仁勋谈“太空数据中心”:目前经济效益较差 但未来将持续改善
2026-02-26 10:46:32
英伟达 4B 小模型击败 GPT-5 Pro!单任务成本仅后者 1/36
2025-12-08 16:36:14
再狙英伟达!“大空头”炮轰:你们的反击充斥着“稻草人谬误”
2025-11-27 11:39:54
特斯拉最牛散户斥资1.8亿美元买100万股英伟达:力挺AI赛道
2026-03-05 17:38:25
特斯拉巨鲸廖凯原买入100万股英伟达 将再买100万股以支持紧张的市场
2026-03-04 18:04:30
英伟达护城河又宽了!低调收购开源算力调度王牌工具,全球过半顶级超算在用,Thinking Machines也离不开它
2025-12-17 12:39:49
英伟达计划推出新芯片以加快AI处理速度
2026-02-28 12:13:33
英伟达和Meta宣布建立多年战略合作伙伴关系 Meta将部署数百万颗英伟达芯片
2026-02-18 06:11:18
英伟达内部全面部署AI编码工具 工程师代码产出量提升三倍
2026-02-08 17:17:00
英伟达回应:未收购Groq 聘请了Groq人才加入英伟达
2025-12-25 13:38:36
英伟达发布“行业最高效”Nemotron 3 开源 AI 模型系列,吞吐量达上一代 4 倍
2025-12-15 23:04:58
「中国英伟达」不好当
2025-12-26 17:53:02
736 文章
530948 浏览
24小时热文
更多
-
2026-03-09 21:13:27 -
2026-03-09 20:09:26 -
2026-03-09 20:09:18