8张GPU训出近SOTA模型,超低成本图像生成预训练方案开源
仅需8张GPU,就能实现近SOTA的高质量图像生成效果。模型名为LightGen,由港科大Harry Yang团队联合Everlyn AI等机构打造,借助知识蒸馏(KD)和直接偏好优化(DPO)策略,大幅降低训练成本。
LightGen参数量更小、数据规模更精简,却在多项基准评测中超越部分SOTA模型。其训练时间从数千GPU days缩短至88个GPU days,显著提升效率。LightGen采用两阶段训练:先用SOTA模型生成高质量合成数据,再通过DPO优化细节与空间关系。
实验显示,LightGen在256×256和512×512分辨率下的表现接近或超过现有SOTA模型。加入DPO后,模型在位置准确性和高频细节方面表现更佳。数据规模达200万张时,性能趋于饱和。未来可探索其在视频生成等领域的应用。
论文链接:https://arxiv.org/abs/2503.08619
模型链接:https://huggingface.co/Beckham808/LightGen
项目链接:https://github.com/XianfengWu01/LightGen
原文链接
本文链接:https://kx.umi6.com/article/15712.html
转载请注明文章出处
相关推荐
换一换
OpenAI大溃败!GPT-5「换皮」GPT-4o,两年半预训练0突破
2025-12-02 01:39:51
AI 人像以假乱真,阿里通义 Qwen-Image-2512 模型开源发布
2025-12-31 18:33:39
ChatGPT能靠吉卜力风翻盘吗?
2025-04-09 18:01:29
英特尔发布 OpenVINO 2025.0:新增图像生成场景与 DeepSeek 蒸馏模型支持
2025-02-15 14:02:57
阿里千问推出新一代图像生成基础模型Qwen-Image-2.0
2026-02-10 15:23:08
OpenAI 推迟免费版 ChatGPT 图像生成功能上线时间
2025-03-27 07:32:32
可能是目前效果最好的开源生图模型,混元生图3.0来了
2025-09-30 21:34:24
OpenAI 扩展 Responses API:支持 MCP、图像生成等
2025-05-22 11:28:26
智源推出全能视觉生成模型 OmniGen:支持文生图、图像编辑等
2024-10-29 16:33:28
苹果将使用亚马逊AI芯片对其专有模型进行预训练
2024-12-04 09:39:45
李开复回应一切:竞技场排名“让我们有信心继续做预训练”
2024-10-31 14:45:51
马斯克宣布Grok 3即将推出:已完成预训练 计算量超Grok 2十倍
2025-01-05 15:54:18
GitHub一周2000星!国产统一图像生成模型神器升级,理解质量双up,还学会了“反思”
2025-07-03 13:21:28
742 文章
556856 浏览
24小时热文
更多
-
2026-03-24 19:15:58 -
2026-03-24 19:15:22 -
2026-03-24 18:09:46