4月20日,GitHub用户Lvmin Zhang与斯坦福大学的Maneesh Agrawala合作推出FramePack技术,大幅降低AI视频生成硬件门槛。FramePack通过固定长度时域上下文优化视频扩散模型,使仅需6GB显存即可生成60秒视频,显著提升处理效率。传统视频扩散模型因显存需求高(通常超12GB),限制了硬件适用性,而FramePack通过帧压缩和上下文长度优化,将计算成本降至接近图像扩散模型。该技术兼容英伟达RTX 30、40、50系列GPU,支持Linux系统,RTX 4090启用teacache优化后生成速度约0.6帧/秒。FramePack为普通消费者和非专业内容创作者提供低成本AI视频创作方案,未来可能扩展至GIF动图等领域。
原文链接
本文链接:https://kx.umi6.com/article/17480.html
转载请注明文章出处
相关推荐
.png)
换一换
天猫精灵合伙人创业,用AI大模型复活毛绒玩具,被“大疆教父”相中了
2024-07-27 09:28:38
谷歌将Gemini引入Google Home
2024-08-12 18:29:10
AI安全性再受关注 谷歌聊天机器人竟回复用户:“请去死吧”
2024-11-20 11:07:44
454 文章
61122 浏览
24小时热文
更多

-
2025-07-18 23:46:25
-
2025-07-18 22:47:06
-
2025-07-18 22:46:21