4月20日消息,GitHub用户Lvmin Zhang与斯坦福大学的Maneesh Agrawala联合发布了一项名为FramePack的技术。该技术通过固定时域上下文长度,在视频扩散模型中实现更高效的长视频生成。测试显示,基于FramePack的130亿参数模型,仅需6GB显存即可生成60秒高质量视频。FramePack是一种多级优化的神经网络架构,兼容现有预训练模型,支持FP16、BF16格式,并适用于RTX 50、RTX 40、RTX 30系列显卡(除RTX 3050 4GB外)。它能显著降低显存需求,缓解‘漂移’现象,同时支持即时预览。性能方面,RTX 4090优化后每秒可生成约0.6帧。FramePack已在Windows和Linux系统上验证,但在RTX 20系列及更老显卡上的表现尚未明确,且未提及AMD、Intel处理器的支持情况。
原文链接
本文链接:https://kx.umi6.com/article/17490.html
转载请注明文章出处
相关推荐
.png)
换一换
OpenAI 拟将视频生成工具 Sora 整合进 ChatGPT,并推出更强大 Sora Turbo
2025-03-01 10:50:58
全球首个无限时长视频生成!新扩散模型引爆万亿市场,电影级理解,全面开源
2025-04-21 16:45:29
10秒极速出片!还有超多特效模版,国产视频模型又整新活了
2025-01-01 18:00:30
420 文章
73613 浏览
24小时热文
更多

-
2025-07-19 15:54:36
-
2025-07-19 15:54:26
-
2025-07-19 14:57:21