1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:计算所严明玉团队新作:Attention 并非永远是瓶颈,多 GPU 并不一定更快

随着大语言模型逐步应用于实际场景,推理性能成为落地的关键挑战。模型规模扩大、上下文增长以及 RAG、MoE 等新方法的引入,使得延迟、吞吐和能耗问题更加复杂。中国科学院计算所严明玉团队联合中国电信云计算研究院、浙江实验室和北京大学,在论文《A Systematic Characterization of LLM Inference on GPUs》中,系统研究了大语言模型在 GPU 上的推理行为。

研究从系统与硬件协同的角度出发,通过大规模实验揭示了大模型推理性能的根本规律。团队发现,推理过程可分为两个阶段:Prefill 和 Decode。Prefill 阶段处理用户输入,以并行计算为主,受限于算力;Decode 阶段逐个生成输出 token,受限于内存带宽和访问延迟。性能瓶颈取决于输入和输出长度:短输入时 Decode 占主导,长输入时 Prefill 成为主要耗时部分。

进一步分析表明,瓶颈并非固定。在 Prefill 阶段,前馈网络(FFN)通常是主要耗时点,但长上下文中注意力计算(Attention)可能成为瓶颈;在 Decode 阶段,小模型中 Attention 更易受限,而大模型中 FFN 的内存加载成本更突出。此外,Prefill 的延迟与输入长度呈线性关系,较易预测,而 Decode 因逐步生成且受采样影响,波动较大。

能耗方面,Decode 阶段占总能耗绝大部分,限制输出长度比优化 Prefill 更有效。多 GPU 并行化在 Prefill 阶段通常有效,但在 Decode 阶段因通信开销反而可能变慢。对于 MoE 模型,推理速度取决于实际参与计算的参数量,但 Decode 阶段额外引入专家选择开销;RAG 工作流则可能将瓶颈转移到 CPU 侧的检索和内存访问。

研究覆盖多种硬件平台(如 A100 和 Jetson AGX Orin)和主流模型(7B 至 32B),并通过多样化工作负载验证结论。论文的意义在于建立了一套统一的性能认知框架,纠正了多个直觉性误解,并为系统优化提供了理论支持。

通讯作者严明玉教授长期从事计算机体系结构研究,其成果兼具理论深度与实践价值,曾获多项国际认可。论文链接:https://arxiv.org/pdf/2512.01644v1

原文链接
本文链接:https://kx.umi6.com/article/30608.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
芯瞳:旗下自主研发 GPU 完成与 DeepSeek 模型兼容适配
2025-02-10 17:13:19
特朗普扼杀全美GPU供应链?硅谷陷巨大恐慌
2025-04-05 22:27:57
英伟达财报会实录:三大转型驱动AI基建投资 5000亿美元收入目标有望再突破
2025-11-20 09:13:51
奥尔特曼坦诚 OpenAI 急缺 GPU,GPT-4.5 只能分阶段推出
2025-02-28 10:04:01
2026,AI算力新江湖
2026-01-31 12:36:53
估值255亿!“中国英伟达”GPU独角兽摩尔线程启动IPO上市辅导
2024-11-13 07:26:24
摩尔线程、国家信息中心战略合作!国产GPU空前新机遇
2025-10-23 20:13:57
谷歌还是缺GPU
2025-04-03 16:31:01
大厂疯抢GPU,马斯克要买100万个?
2024-12-06 11:24:26
摩尔线程GPU适配超图软件大模型:打造国产地理空间AI
2024-10-24 01:53:12
两个月斩获微软四笔订单 “英版甲骨文”或计划明年IPO
2025-10-16 00:43:21
DeepSeek的真实成本分析
2025-02-04 14:38:04
黄仁勋自掏腰包50亿,手把手教AI公司用好GPU
2024-12-31 12:41:10
24小时热文
更多
扫一扫体验小程序