1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

何恺明新作:给扩散模型加正则化,无需预训练无需数据增强,超简单实现性能提升

扩散模型近年来备受关注,何恺明团队最新研究聚焦于如何将扩散模型与表征学习结合。他们提出了一种名为“Dispersive Loss”的正则化方法,旨在使扩散模型生成更自然真实的图片。

Dispersive Loss是一种即插即用的正则化技术,在标准去噪损失之外引入目标函数,对模型中间表示进行正则化。其灵感来源于对比学习的排斥效应,但无需正样本对,也不需修改模型结构,计算开销极低且与原有损失兼容。

研究团队从扩散模型的局限性、表征学习的启发以及现有方法的不足出发,设计了这一创新方案。Dispersive Loss通过鼓励中间表示在隐藏空间中分散,提高模型泛化能力。其公式简洁,无需额外样本对或复杂操作,可直接应用于模型中间层。

实验显示,Dispersive Loss在ImageNet上的多种模型中显著提升了生成质量,例如在SiT-B/2模型上,FID值从36.49降至32.45。与REPA方法相比,Dispersive Loss无需预训练或外部数据,生成效果仍具竞争力。此外,该方法适用于多步及单步扩散模型。

这项工作表明,Dispersive Loss不仅适用于图像生成,还可能扩展到图像识别等更多领域。论文已发布于arXiv: https://arxiv.org/abs/2506.09027v1。

原文链接
本文链接:https://kx.umi6.com/article/20148.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
GAN已死?GAN万岁!布朗康奈尔新作爆火,一夜碾压扩散模型
2025-01-11 17:39:16
突破瓶颈!北航ETH等首次将扩散模型完全量化至1bit,28倍存储节省+52.7倍效率提升
2025-01-11 12:37:26
谷歌 Fluid 颠覆共识:两大因素被发现,AI 文生图领域自回归模型超越扩散模型
2024-10-23 14:39:38
MSRA:视觉生成六大技术问题
2024-07-13 12:09:52
扩散语言模型写代码!速度比自回归快10倍
2025-07-10 17:26:44
英伟达合作推出 Fast-dLLM 框架,AI 扩散模型推理速度最高飙升 27.6 倍
2025-06-03 12:54:51
嚯!大语言扩散模型来了,何必只预测下一个token | 人大高瓴&蚂蚁
2025-02-18 13:14:03
材料设计重大突破!微软发布创新大模型,准确率提升10倍!
2025-01-17 16:19:05
12秒生成1万token!谷歌推出文本「扩散模型」Gemini Diffusion,研究员:演示都得降速看
2025-05-22 15:30:59
物理学家靠生物揭开AI创造力来源:起因竟是“技术缺陷”
2025-07-04 18:47:36
图灵奖得主加持,蒙特卡洛树搜索×扩散模型杀回规划赛道|ICML 2025 Spotlight
2025-08-01 14:00:21
何恺明新作:给扩散模型加正则化,无需预训练无需数据增强,超简单实现性能提升
2025-06-12 17:40:43
寡姐带货国风 Polo 衫、马斯克穿牛仔走红毯:虚拟试衣新框架,只需两张图 30 秒即生成
2024-07-30 22:12:57
24小时热文
更多
扫一扫体验小程序