标题:视频扩散模型新突破!清华腾讯联合实现高保真3D生成,告别多视图依赖
三维场景是构建世界模型和具身智能的重要环节。尽管Hunyuan3D、Rodin-v1.5、Tripo-v2.5等模型在三维生成方面取得进展,但它们主要集中在物体级别的内容生成,难以处理复杂三维场景。
清华大学与腾讯合作提出了名为“Scene Splatter”的新方法,仅需一张图像即可通过自定义相机轨迹探索三维场景。该方法基于视频扩散模型,从动量视角出发,引导生成满足三维一致性的视频片段,显著提升三维场景生成质量。
传统三维重建依赖多视角图像匹配,但在单张图像条件下缺乏几何约束,易导致结构扭曲等问题。引入视频扩散模型的生成先验可补充多视角信息,但现有模型常因生成内容不够一致而受限。
Scene Splatter受动量算法启发,设计了一种级联式动量引导视频生成策略。第一级通过动量增强视频细节和一致性;第二级引入一致性强的视频作为像素级动量,与原始生成视频融合,恢复未知区域信息。这种方法突破了视频生成长度的限制,实现了高保真三维场景重建。
实验显示,相比Flash3D、CogVideo和ViewCrafter,Scene Splatter在保持场景一致性的同时提供了更高质量的多视角视频。无论输入风格如何,无论是卡通还是真实图像,室内还是室外场景,该方法均表现出色。此外,它还能适应多种相机轨迹,支持任意视角下的三维探索。
论文链接:https://arxiv.org/abs/2504.02764
代码链接:https://github.com/shengjun-zhang/Scene-Splatter
原文链接
本文链接:https://kx.umi6.com/article/20204.html
转载请注明文章出处
相关推荐
换一换
复旦视频扩散模型综述:覆盖300+文献,探讨近期研究趋势与突破,Github揽星2k+
2025-02-21 14:47:58
AI 造梦师:香港大学携手快手科技推出 GameFactory 框架,突破游戏场景泛化难题
2025-01-20 08:01:36
视频扩散模型新突破!清华腾讯联合实现高保真3D生成,告别多视图依赖
2025-06-13 17:13:21
一拖一拽小猫“活了”,Netflix 等噪声扭曲算法让运动控制更简单
2025-02-03 22:18:30
千问AI眼镜G1现货开售
2026-03-08 10:54:49
清华公布毕业生去向:出国比例仅8.5%,华为字节是最大赢家
2026-03-08 15:07:37
彻底告别VE与VAE!商汤硬核重构多模态:砍掉所有中间编码器
2026-03-07 13:31:18
AI浏览器何时才能安全?
2026-03-07 00:49:29
OpenAI将收购人工智能安全平台Promptfoo
2026-03-10 08:58:57
Anthropic研究员:AI对就业市场的冲击尚处早期
2026-03-08 18:29:49
技术获 NVIDIA、Pi 双重认可!原力灵机 DM0 模型重塑具身智能新范式
2026-03-06 20:31:01
抖音电商打击AI虚假营销:处置仿冒李亚鹏、王丽云等名人侵权内容超16万条
2026-03-09 19:06:14
周鸿祎:只有通过多智能体协作 才能让人工智能真正落地
2026-03-07 21:02:28
699 文章
523152 浏览
24小时热文
更多
-
2026-03-10 11:10:02 -
2026-03-10 11:09:29 -
2026-03-10 11:08:54