1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

兼得快与好!训练新范式TiM,原生支持FSDP+Flash Attention

生成式AI的速度与质量能否兼得?社区通过扩散模型和Few-step模型探索加速与提质,但两者各有局限:扩散模型追求高保真却需大量计算步数(NFEs),Few-step模型虽快却常遇“质量天花板”。这一矛盾源于训练目标的限制——要么监督局部瞬时动力学,要么学习固定跨度的端点映射。

新研究提出Transition Model(TiM),试图从根源解决问题。TiM直接建模任意两个时间点之间的状态转移,理论上支持任意步长采样,并能灵活分解生成路径为多段细化轨迹,从而兼顾速度与质量。

为什么需要TiM?

扩散模型学习瞬时速度场,依赖极小步长维持精度;Few-step模型学习端点映射,细节丢失导致增步后收益饱和。两者的缺陷均源于监督信号粒度的限制。理想的训练目标应结合“灵活步长”与“多段细化”,这正是TiM的核心设计。

TiM的设计与优势

  1. 灵活步长
    TiM基于“通用状态转移恒等式”描述任意时间间隔的状态转移,避免传统数值拟合误差。

  2. 多段细化轨迹
    通过任意时刻间的状态转移动态,TiM实现快速生成与高保真质量的平衡。

数学上,TiM不同于扩散模型(瞬时速度场)和Meanflow(平均速度场),而是建模全局生成路径上的解流形,可退化为两种特殊情况,兼具灵活性与普适性。

实验验证

在Text-to-Image任务中,865M参数的TiM在不同分辨率、横纵比下表现优异,明确超越FLUX.1-Schnell(12B参数)和FLUX.1-Dev(12B参数),且分辨率适应性更强。

训练稳定性与扩展性

  1. 差分推导方程(DDE)
    TiM用有限差分近似替代雅可比向量积(JVP),前向传播更高效,天然兼容FSDP和FlashAttention,训练速度提升2倍。

  2. 损失加权策略
    引入正切空间变换的时间重参数化,优先短间隔转移以降低梯度方差,提升训练稳定性。

总结

TiM通过建模任意时刻间的状态转移,突破了传统生成模型的速度与质量矛盾,在理论与实践中均表现出色。其高效、稳定且可扩展的特性,为生成式AI提供了全新范式。

原文链接
本文链接:https://kx.umi6.com/article/25195.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
西交大 x A*STAR 论文:让 AI 学会「保持一致」,多图生成迎来关键突破丨CVPR 2026
2026-03-24 11:45:18
AI视频巨头重磅更新,从未有过这样的视频创作方式
2024-11-28 14:35:25
Bing Image Creator 升级:AI 创作速度翻倍、必应搜索可直接生成
2024-12-19 17:02:04
央行:展望未来 人工智能行业将为经济高质量发展注入更多动能
2026-05-11 20:29:37
从「座上宾」到「主战场」:具身智能如何完成对计算机视觉的「范式夺权」?| CVPR 2026
2026-05-12 16:23:48
硅谷刷屏的AI护城河新论:代码能抄,产品能抄,但有一样东西,谁都抄不走
2026-05-11 17:18:20
魔法原子登陆硅谷,行业首个「自进化具身大脑」发布
2026-05-11 16:20:19
OpenClaw低调更新重磅版本,龙虾长手长脚了
2026-05-12 12:05:03
像素绽放PixelBloom 完成C轮融资:做全球AI视觉表达平台,更做能交方案的AI办公Agent
2026-05-11 16:16:44
河南首个虚拟电厂AI核心平台上线
2026-05-11 07:55:45
中信证券:纳入算力直连供能选项 氢能应用场景再突破
2026-05-12 09:01:22
原来Ilya还有70亿美元OpenAI股权
2026-05-12 22:34:53
开放-构建-创新-连接:AMD AI开发者日即将登陆上海!
2026-05-12 10:02:41
24小时热文
更多
扫一扫体验小程序