谷歌DeepMind团队与麻省理工学院合作推出全新“Fluid”模型,颠覆了自回归模型不如扩散模型的共识。该模型在规模达105亿参数时,实现了最优的文生图效果。通常情况下,扩散模型(如DDPM)在图像生成方面表现更佳,而自回归模型(如GPT系列)则主要用于文本生成。Fluid模型通过使用连续tokens而非离散tokens,以及随机生成顺序而非固定顺序,显著提升了自回归模型的性能。实验表明,Fluid模型在重要基准测试中超越了Stable Diffusion 3扩散模型和谷歌之前的Parti自回归模型。例如,拥有200亿参数的Parti在MS-COCO上FID分数为7.23,而仅含3.69亿参数的Fluid模型达到了相同水平。此研究成果于10月22日由科技媒体The Decoder发布。
原文链接
本文链接:https://kx.umi6.com/article/7742.html
转载请注明文章出处
相关推荐
.png)
换一换
MSRA:视觉生成六大技术问题
2024-07-13 12:09:52
每秒生成超30帧视频,支持实时交互!自回归视频生成新框架刷新生成效率
2025-06-12 14:32:49
突破瓶颈!北航ETH等首次将扩散模型完全量化至1bit,28倍存储节省+52.7倍效率提升
2025-01-11 12:37:26
416 文章
75616 浏览
24小时热文
更多

-
2025-07-20 13:03:48
-
2025-07-20 12:02:31
-
2025-07-20 10:03:13