8张GPU训出近SOTA模型,超低成本图像生成预训练方案开源
仅需8张GPU,就能实现近SOTA的高质量图像生成效果。模型名为LightGen,由港科大Harry Yang团队联合Everlyn AI等机构打造,借助知识蒸馏(KD)和直接偏好优化(DPO)策略,大幅降低训练成本。
LightGen参数量更小、数据规模更精简,却在多项基准评测中超越部分SOTA模型。其训练时间从数千GPU days缩短至88个GPU days,显著提升效率。LightGen采用两阶段训练:先用SOTA模型生成高质量合成数据,再通过DPO优化细节与空间关系。
实验显示,LightGen在256×256和512×512分辨率下的表现接近或超过现有SOTA模型。加入DPO后,模型在位置准确性和高频细节方面表现更佳。数据规模达200万张时,性能趋于饱和。未来可探索其在视频生成等领域的应用。
论文链接:https://arxiv.org/abs/2503.08619
模型链接:https://huggingface.co/Beckham808/LightGen
项目链接:https://github.com/XianfengWu01/LightGen
原文链接
本文链接:https://kx.umi6.com/article/15712.html
转载请注明文章出处
相关推荐
.png)
换一换
智源推出全能视觉生成模型 OmniGen:支持文生图、图像编辑等
2024-10-29 16:33:28
怎么理解Ilya说的“AI放缓了”
2024-11-13 21:51:03
ChatGPT闯入一条危险赛道:新图像生成功能极擅长伪造收据
2025-04-02 15:32:04
478 文章
78145 浏览
24小时热文
更多

-
2025-07-19 12:53:03
-
2025-07-19 12:51:53
-
2025-07-19 11:52:20