标题:视频扩散模型新突破!清华腾讯联合实现高保真3D生成,告别多视图依赖
三维场景是构建世界模型和具身智能的重要环节。尽管Hunyuan3D、Rodin-v1.5、Tripo-v2.5等模型在三维生成方面取得进展,但它们主要集中在物体级别的内容生成,难以处理复杂三维场景。
清华大学与腾讯合作提出了名为“Scene Splatter”的新方法,仅需一张图像即可通过自定义相机轨迹探索三维场景。该方法基于视频扩散模型,从动量视角出发,引导生成满足三维一致性的视频片段,显著提升三维场景生成质量。
传统三维重建依赖多视角图像匹配,但在单张图像条件下缺乏几何约束,易导致结构扭曲等问题。引入视频扩散模型的生成先验可补充多视角信息,但现有模型常因生成内容不够一致而受限。
Scene Splatter受动量算法启发,设计了一种级联式动量引导视频生成策略。第一级通过动量增强视频细节和一致性;第二级引入一致性强的视频作为像素级动量,与原始生成视频融合,恢复未知区域信息。这种方法突破了视频生成长度的限制,实现了高保真三维场景重建。
实验显示,相比Flash3D、CogVideo和ViewCrafter,Scene Splatter在保持场景一致性的同时提供了更高质量的多视角视频。无论输入风格如何,无论是卡通还是真实图像,室内还是室外场景,该方法均表现出色。此外,它还能适应多种相机轨迹,支持任意视角下的三维探索。
论文链接:https://arxiv.org/abs/2504.02764
代码链接:https://github.com/shengjun-zhang/Scene-Splatter
原文链接
本文链接:https://kx.umi6.com/article/20204.html
转载请注明文章出处
相关推荐
.png)
换一换
视频扩散模型新突破!清华腾讯联合实现高保真3D生成,告别多视图依赖
2025-06-13 17:13:21
复旦视频扩散模型综述:覆盖300+文献,探讨近期研究趋势与突破,Github揽星2k+
2025-02-21 14:47:58
一拖一拽小猫“活了”,Netflix 等噪声扭曲算法让运动控制更简单
2025-02-03 22:18:30
AI 造梦师:香港大学携手快手科技推出 GameFactory 框架,突破游戏场景泛化难题
2025-01-20 08:01:36
国家海洋局局长孙书贤:优先推动与民生紧密相关社会需求迫切的数据资源向社会开放
2025-10-22 15:48:53
新石器公司完成逾6亿美元D轮融资
2025-10-23 15:12:58
马斯克详谈AI5芯片:由三星和台积电一起生产,不会弃用英伟达GPU!
2025-10-23 10:06:47
网易云信10周年宣布品牌升级,从“基础通信管道”到“AI交互引擎”
2025-10-23 15:10:38
腾讯混元世界模型 1.1 版本发布并开源:单卡即可部署,秒级创造 3D 世界
2025-10-22 18:50:23
Meta将削减人工智能部门约600个职位 以提升决策效率
2025-10-22 23:55:49
沐曦集成科创板IPO上会在即 十余家上市公司互动易回复参股投资
2025-10-23 21:15:29
爱彼迎 CEO 布莱恩・切斯基“力挺”阿里通义千问:速度快、效率高、成本低
2025-10-23 12:03:18
两部门:启动2025年度智能制造系统解决方案“揭榜挂帅”项目申报工作
2025-10-22 16:50:23
548 文章
260243 浏览
24小时热文
更多

-
2025-10-24 01:20:07
-
2025-10-24 00:18:56
-
2025-10-23 21:15:29