正文:2025年11月,何恺明团队发布新论文,提出扩散模型可能被用错的观点。研究指出,当前主流扩散模型在训练时多预测噪声或速度场,而非直接生成干净图像,这与模型本质相悖。基于流形假设,团队认为神经网络更适合学习将噪声投影回低维流形的干净数据,而非拟合高维噪声。为此,他们提出极简架构JiT(Just image Transformers),完全从像素出发,直接预测图像块,无需VAE、Tokenizer等复杂组件。实验表明,JiT在高维空间下表现稳健,在ImageNet 256×256和512×512生成任务中分别取得1.82和1.78的SOTA级FID分数。论文一作为黎天鸿,清华姚班本科毕业,现为何恺明组博士后。
原文链接
本文链接:https://kx.umi6.com/article/28778.html
转载请注明文章出处
相关推荐
换一换
嚯!大语言扩散模型来了,何必只预测下一个token | 人大高瓴&蚂蚁
2025-02-18 13:14:03
何恺明新作:给扩散模型加正则化,无需预训练无需数据增强,超简单实现性能提升
2025-06-12 17:40:43
寡姐带货国风 Polo 衫、马斯克穿牛仔走红毯:虚拟试衣新框架,只需两张图 30 秒即生成
2024-07-30 22:12:57
突破瓶颈!北航ETH等首次将扩散模型完全量化至1bit,28倍存储节省+52.7倍效率提升
2025-01-11 12:37:26
LSTM之父向何恺明开炮:我学生才是残差学习奠基人
2025-10-19 22:54:26
何恺明MIT开门弟子名单:奥赛双料金牌得主、清华姚班学霸在列
2024-12-03 16:20:13
冲破 AGI 迷雾,蚂蚁看到了一个新路标
2025-09-29 11:08:37
刚刚,OpenAI发布sCM提升50倍效率,扩散模型重大技术突破!
2024-10-25 10:40:17
后生可畏!何恺明团队新成果发布,共一清华姚班大二在读
2025-12-04 09:08:44
12秒生成1万token!谷歌推出文本「扩散模型」Gemini Diffusion,研究员:演示都得降速看
2025-05-22 15:30:59
何恺明组三位本科生领衔!持续聚焦Flow模型,突破归一化流生成效率瓶颈
2025-12-15 15:44:36
DiT突遭怒喷,谢赛宁淡定回应
2025-08-20 17:19:58
扩散语言模型写代码!速度比自回归快10倍
2025-07-10 17:26:44
640 文章
429339 浏览
24小时热文
更多
-
2026-01-23 06:34:26 -
2026-01-23 00:20:44 -
2026-01-22 23:18:34