6月2日,英伟达联合MIT和香港大学推出Fast-dLLM框架,大幅提升扩散模型推理速度。扩散模型因词元依赖关系易破坏及计算成本高等问题,在实际应用中逊于自回归模型。Fast-dLLM通过块状近似KV缓存和置信度感知并行解码策略解决上述问题。KV缓存将序列分块预计算存储,DualCache版本进一步优化;置信度解码选择性解码高置信度词元。Fast-dLLM在GSM8K数据集上实现27.6倍加速,准确率达76.0%,并在MATH、HumanEval和MBPP测试中分别实现6.5倍至7.8倍加速,准确率仅下降1-2个百分点。这项研究使扩散模型具备与自回归模型竞争的能力,为未来广泛应用奠定基础。
原文链接
本文链接:https://kx.umi6.com/article/19613.html
转载请注明文章出处
相关推荐
换一换
扩散模型也能搞定社交信息推荐,港大数据智能实验室提出RecDiff
2024-07-29 16:05:53
拆分Transformer注意力,韩国人要给大模型“踩油门”
2024-07-02 20:53:35
智谱发布新一代开源模型 极速版最高达到200tokens/秒
2025-04-15 08:25:16
何恺明新作:给扩散模型加正则化,无需预训练无需数据增强,超简单实现性能提升
2025-06-12 17:40:43
DeepMind大模型再登Nature:8分钟预测15日天气,准确度超顶尖物理模型
2024-12-05 16:02:34
MSRA:视觉生成六大技术问题
2024-07-13 12:09:52
谷歌 Fluid 颠覆共识:两大因素被发现,AI 文生图领域自回归模型超越扩散模型
2024-10-23 14:39:38
8.9ms,推理速度新纪录!1块钱百万token,浪潮信息AI服务器加速智能体产业化
2025-09-29 14:08:52
谷歌推理最快、成本效益最高 AI 模型:Gemini 2.5 Flash-Lite 亮相,全面升级编码、翻译、推理
2025-06-18 08:33:43
12秒生成1万token!谷歌推出文本「扩散模型」Gemini Diffusion,研究员:演示都得降速看
2025-05-22 15:30:59
刚刚,OpenAI发布sCM提升50倍效率,扩散模型重大技术突破!
2024-10-25 10:40:17
ViT一作盛赞:这个中国开源“PS模型”强过Nano Banana
2025-12-29 13:21:05
罗福莉加入小米后首秀,解释 MiMo-V2-Flash 模型如何做到推理速度飞快
2025-12-17 11:39:04
629 文章
432996 浏览
24小时热文
更多
-
2026-03-09 21:13:27 -
2026-03-09 20:09:26 -
2026-03-09 20:09:18