正文:2025年10月,苹果研究团队发布论文《To Infinity and Beyond》,提出基于SSM架构的Mamba模型在Agent任务中表现优于Transformer。研究表明,Mamba通过内部状态更新机制,计算量随序列长度线性增长,支持流式处理且内存占用稳定,适合长任务和多交互场景。然而,Mamba对早期信息保留能力较弱,但通过引入外部工具(如指针、文件查看工具等),其性能显著提升。例如,在多位数加法和代码调试任务中,配备工具的Mamba准确率接近100%,远超Transformer。研究认为,‘Mamba+工具’组合将在Agent场景中展现更大潜力。
原文链接
本文链接:https://kx.umi6.com/article/27038.html
转载请注明文章出处
相关推荐
.png)
换一换
Kimi“憋”出的深度研究,成色几何?
2025-07-01 15:26:59
智谱发布Agent产品AutoGLM沉思 可以像人类一样边想边干
2025-03-31 10:24:22
阶跃星辰首届开放日:多模领先,智能终端等Agent应用全面涌现
2025-02-21 18:55:11
地表最强编程AI 诞生,Claude4连续自动编程7小时,实测细节惊艳程序员
2025-05-23 06:43:11
「阶跃星辰」的一次豪赌
2025-05-21 08:55:53
GPT-5与Transformer共同发明人Lukasz Kaiser重磅加盟,2025 全球机器学习技术大会全日程官宣!
2025-09-18 16:55:56
超越AGI,阿里剑指“超级智能”
2025-09-24 18:49:07
“AI过时了,现在都在投Agent”
2025-06-01 13:23:18
一个「always」站在大模型技术C位的传奇男子
2025-05-10 12:04:35
微软清华改进Transformer:用降噪耳机原理升级注意力,一作在线答疑
2024-11-05 14:35:47
AI搜索一夜变天,专为Agent做搜索的赛道能否诞生百亿美金新巨头?
2025-07-23 12:48:11
Manus 终于能生图了,实测后我发现把它当GPT-4o 用有点浪费
2025-05-16 17:37:15
谷歌 AI 掌门人 Jeff Dean 对话 Transformer 作者:AI 提速 300%,1000 万倍工程师要来了
2025-02-22 18:43:08
556 文章
254223 浏览
24小时热文
更多

-
2025-10-21 16:32:23
-
2025-10-21 16:31:32
-
2025-10-21 16:31:08