
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
4月20日消息,GitHub用户Lvmin Zhang与斯坦福大学的Maneesh Agrawala联合发布了一项名为FramePack的技术。该技术通过固定时域上下文长度,在视频扩散模型中实现更高效的长视频生成。测试显示,基于FramePack的130亿参数模型,仅需6GB显存即可生成60秒高质量视频。FramePack是一种多级优化的神经网络架构,兼容现有预训练模型,支持FP16、BF16格式,并适用于RTX 50、RTX 40、RTX 30系列显卡(除RTX 3050 4GB外)。它能显著降低显存需求,缓解‘漂移’现象,同时支持即时预览。性能方面,RTX 4090优化后每秒可生成约0.6帧。FramePack已在Windows和Linux系统上验证,但在RTX 20系列及更老显卡上的表现尚未明确,且未提及AMD、Intel处理器的支持情况。
原文链接
4月20日,GitHub用户Lvmin Zhang与斯坦福大学的Maneesh Agrawala合作推出FramePack技术,大幅降低AI视频生成硬件门槛。FramePack通过固定长度时域上下文优化视频扩散模型,使仅需6GB显存即可生成60秒视频,显著提升处理效率。传统视频扩散模型因显存需求高(通常超12GB),限制了硬件适用性,而FramePack通过帧压缩和上下文长度优化,将计算成本降至接近图像扩散模型。该技术兼容英伟达RTX 30、40、50系列GPU,支持Linux系统,RTX 4090启用teacache优化后生成速度约0.6帧/秒。FramePack为普通消费者和非专业内容创作者提供低成本AI视频创作方案,未来可能扩展至GIF动图等领域。
原文链接
加载更多

暂无内容