标题:全球首个无限时长视频生成!新扩散模型引爆万亿市场,电影级理解,全面开源
不是5秒,不是10秒,更不只是1分钟。AI视频生成,正式迎来无限时长时代!
来,直接看一部AI版《罗马假日》:
视频地址:[链接]
这部小短剧片段的起点,仅仅是一张照片和一句Prompt:“身着西装的欧美男子与一位美女漫步在罗马街头,分享趣事,夕阳洒在两人脸上。”
或许你以为这是AI一口气生成的37秒视频?非也。其实它是先生成30秒视频,再用“Extend大法”延长至37秒,方法很简单——pick已生成视频,再来一句Prompt:“两个人拥抱在一起。”AI据此继续扩展7秒。若想延长视频,只需反复操作即可。
这就是无限时长的由来。这个AI正是昆仑万维升级的SkyReels-V2,全球首个无限时长视频生成模型,实现电影级理解,并全面开源。
整体体验下来,它的特点是“很懂拍电影”。不仅时长可无限,还对视频内容连续性、镜头切换和主体一致性把控良好。
为什么要做这样的AI?因为全球AI视频生成领域面临三大痛点:时长限制(主流模型仅能生成5-10秒)、专业度缺失(难以理解电影语法)、质量妥协(提升分辨率牺牲运动流畅性)。SkyReels-V2正是为解决这些问题而生。
接下来,让我们通过实测看看效果。先给AI一张静态图片,Prompt让它动起来:“保持漫画风格,树、湖面、男孩的头发随风飘动。”
继续扩展后续内容:
“男孩发现鱼漂和鱼竿抖动,露出惊喜表情。”
“男孩起身用力拽鱼竿。”
“男孩后退拽鱼竿,没钓到鱼。”
就这样,一点点扩展,完成了这段动漫场景。
值得一提的是,视频的BGM也是由昆仑万维的音乐生成AI Mureka生成的。此外,还有女生化妆和水母在海洋徜徉的视频示例。
那么,SkyReels-V2是如何做到的?背后技术已开源。其创新在于结合多模态大语言模型、多阶段预训练、强化学习和扩散强制框架,实现提示遵循度、视觉质量和运动动态的突破。
SkyReels-V2的核心是扩散强迫技术,将传统扩散模型转化为支持无限长度生成的架构。通过帧导向概率传播、自适应差异时间和上下文因果注意力,理论上支持无限长度扩展。
测试结果显示,SkyReels-V2在指令遵循和运动质量方面表现优异,总分和质量分均优于对比模型。
SkyReels-V2的问世意味着创意内容产业的DNA正在重塑。人类从执行者变为“创意导演”,艺术创作重心从技艺转向思想表达。
据预测,到2027年AI生成视频市场规模将达万亿美元,SkyReels-V2以“无限时长+电影级质量+精准控制”的技术优势,率先打开这片蓝海市场。
体验地址:
SkyReels官网:[链接]
GitHub:[链接]
HuggingFace:[链接]
论文:[链接]
.png)

-
2025-08-27 20:10:25
-
2025-08-27 20:09:17
-
2025-08-27 20:08:08