正文:2025年10月,苹果研究团队发布论文《To Infinity and Beyond》,提出基于SSM架构的Mamba模型在Agent任务中表现优于Transformer。研究表明,Mamba通过内部状态更新机制,计算量随序列长度线性增长,支持流式处理且内存占用稳定,适合长任务和多交互场景。然而,Mamba对早期信息保留能力较弱,但通过引入外部工具(如指针、文件查看工具等),其性能显著提升。例如,在多位数加法和代码调试任务中,配备工具的Mamba准确率接近100%,远超Transformer。研究认为,‘Mamba+工具’组合将在Agent场景中展现更大潜力。
原文链接
本文链接:https://kx.umi6.com/article/27038.html
转载请注明文章出处
相关推荐
换一换
Google AI编年史
2025-11-04 16:20:36
从“卖API”到“卖解决方案” 月之暗面Kimi押注Agent|聚焦
2025-06-26 08:39:13
Agent 元年,小厂碎步快跑反超
2025-06-03 12:55:57
o3来了,通用人工智能真的触手可及吗?
2025-01-07 09:58:26
AI四小强重新上桌了?
2025-07-26 20:47:21
中信证券:AI产业端Agent和多模态两大主线有望持续引领
2025-08-01 09:26:15
谷歌新架构一战成名,打破Transformer记忆瓶颈,姚班校友钟沛林新作
2025-01-14 15:12:54
MiniMax开启Agent内测
2025-05-16 17:39:21
阶跃星辰首届开放日:多模领先,智能终端等Agent应用全面涌现
2025-02-21 18:55:11
「阶跃星辰」的一次豪赌
2025-05-21 08:55:53
首批“数字员工”组团进大厂!7个岗位干爆KPI,提前锁定年度最佳企业级Agent
2025-08-06 01:20:41
谷歌 AI 掌门人 Jeff Dean 对话 Transformer 作者:AI 提速 300%,1000 万倍工程师要来了
2025-02-22 18:43:08
Agent落地的“光刻机之问”:当全行业紧盯“大脑”,谁在打造真正的基石?
2025-06-25 10:46:49
613 文章
356735 浏览
24小时热文
更多
-
2025-12-08 20:48:29 -
2025-12-08 20:47:34 -
2025-12-08 20:45:30