1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

兼得快与好!训练新范式TiM,原生支持FSDP+Flash Attention

生成式AI的速度与质量能否兼得?社区通过扩散模型和Few-step模型探索加速与提质,但两者各有局限:扩散模型追求高保真却需大量计算步数(NFEs),Few-step模型虽快却常遇“质量天花板”。这一矛盾源于训练目标的限制——要么监督局部瞬时动力学,要么学习固定跨度的端点映射。

新研究提出Transition Model(TiM),试图从根源解决问题。TiM直接建模任意两个时间点之间的状态转移,理论上支持任意步长采样,并能灵活分解生成路径为多段细化轨迹,从而兼顾速度与质量。

为什么需要TiM?

扩散模型学习瞬时速度场,依赖极小步长维持精度;Few-step模型学习端点映射,细节丢失导致增步后收益饱和。两者的缺陷均源于监督信号粒度的限制。理想的训练目标应结合“灵活步长”与“多段细化”,这正是TiM的核心设计。

TiM的设计与优势

  1. 灵活步长
    TiM基于“通用状态转移恒等式”描述任意时间间隔的状态转移,避免传统数值拟合误差。

  2. 多段细化轨迹
    通过任意时刻间的状态转移动态,TiM实现快速生成与高保真质量的平衡。

数学上,TiM不同于扩散模型(瞬时速度场)和Meanflow(平均速度场),而是建模全局生成路径上的解流形,可退化为两种特殊情况,兼具灵活性与普适性。

实验验证

在Text-to-Image任务中,865M参数的TiM在不同分辨率、横纵比下表现优异,明确超越FLUX.1-Schnell(12B参数)和FLUX.1-Dev(12B参数),且分辨率适应性更强。

训练稳定性与扩展性

  1. 差分推导方程(DDE)
    TiM用有限差分近似替代雅可比向量积(JVP),前向传播更高效,天然兼容FSDP和FlashAttention,训练速度提升2倍。

  2. 损失加权策略
    引入正切空间变换的时间重参数化,优先短间隔转移以降低梯度方差,提升训练稳定性。

总结

TiM通过建模任意时刻间的状态转移,突破了传统生成模型的速度与质量矛盾,在理论与实践中均表现出色。其高效、稳定且可扩展的特性,为生成式AI提供了全新范式。

原文链接
本文链接:https://kx.umi6.com/article/25195.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
Bing Image Creator 升级:AI 创作速度翻倍、必应搜索可直接生成
2024-12-19 17:02:04
兼得快与好!训练新范式TiM,原生支持FSDP+Flash Attention
2025-09-14 14:39:50
AI视频巨头重磅更新,从未有过这样的视频创作方式
2024-11-28 14:35:25
优必选第 1000 台工业人形机器人 Walker S2 在柳州下线
2025-12-26 16:50:31
我国首部 AI 大模型系列国家标准实施,明确性能、安全与服务能力要求
2025-12-26 18:57:02
星尘智能开启“机器人 MART”千台级批量交付,自主售卖玩偶盲盒
2025-12-25 23:02:30
鏖战2025年,大模型围着开源转
2025-12-25 18:55:44
X 新增在线图片 AI 编辑器,部分创作者放弃在该平台分享内容
2025-12-25 15:41:22
清华系公司清微智能放言:明年国产AI芯片有望超越国际高端芯片 对标H100
2025-12-25 22:04:17
以AI之名,裁员寒流席卷硅谷
2025-12-25 18:52:16
工信部:推进“人工智能+制造”专项行动 培育一批重点行业智能体、智能原生企业
2025-12-26 14:44:37
机构:预计2030年全球生成式AI消费支出达6990亿美元
2025-12-25 14:42:21
用AI代码替换Windows里每一行C/C++!微软回应了
2025-12-25 22:00:44
24小时热文
更多
扫一扫体验小程序