正文:2025年10月,苹果研究团队发布论文《To Infinity and Beyond》,提出基于SSM架构的Mamba模型在Agent任务中表现优于Transformer。研究表明,Mamba通过内部状态更新机制,计算量随序列长度线性增长,支持流式处理且内存占用稳定,适合长任务和多交互场景。然而,Mamba对早期信息保留能力较弱,但通过引入外部工具(如指针、文件查看工具等),其性能显著提升。例如,在多位数加法和代码调试任务中,配备工具的Mamba准确率接近100%,远超Transformer。研究认为,‘Mamba+工具’组合将在Agent场景中展现更大潜力。
原文链接
本文链接:https://kx.umi6.com/article/27038.html
转载请注明文章出处
相关推荐
换一换
OpenAI继续商业化狂飙:要靠Agent 5年赚1750亿美元
2025-04-27 12:14:50
AI“手指难题”翻车,6 根手指暴露 Transformer 致命缺陷
2025-12-15 22:02:22
智谱携“沉思”加入Agent“混战” 记者实测结果来了!
2025-04-03 08:08:40
Google AI编年史
2025-11-04 16:20:36
DeepSeek之后,每一家公司都是Agent
2025-04-02 21:46:19
北京最猛独角兽,踏进华为、小米的领地
2025-08-27 14:04:00
阿里闪电入局Agent Infra!智能体新基建亮相WAIC,“超级大脑”开箱即用
2025-08-01 08:59:54
Mamba一作预告新架构!长文论述Transformer≠最终解法
2025-07-09 14:03:28
2026 年 AI 行业的真正瓶颈不是模型?
2026-01-21 13:12:13
“AI过时了,现在都在投Agent”
2025-06-01 13:23:18
苹果AI选Mamba:Agent任务比Transformer更好
2025-10-21 14:27:27
一句话生成任务专属LoRA!Transformer作者创业公司颠覆LLM微调
2025-06-13 18:12:01
从“卖API”到“卖解决方案” 月之暗面Kimi押注Agent|聚焦
2025-06-26 08:39:13
653 文章
428867 浏览
24小时热文
更多
-
2026-01-23 17:11:08 -
2026-01-23 17:10:00 -
2026-01-23 17:08:55