1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

谢赛宁团队新作:无需提示词精准控制3D画面

曾几何时,用文字生成图像已变得稀松平常。但你是否想过通过拖动方向键或滑块来直接操控画面?谢赛宁团队最新发布的Blender Fusion框架,结合图形工具(Blender)与扩散模型,让视觉合成不再依赖文本提示,实现了对3D画面的精准控制。

核心:高效组合现有技术

Blender Fusion的核心并非全新模型,而是对分割、深度估计、Blender渲染和扩散模型等技术的创新整合,形成了一套三步Pipeline:
1. 物体分层:利用Segment Anything Model(SAM)分割画面中的物体,并通过Depth Pro模型推断深度信息,将2D输入投影到3D空间。
2. Blender编辑:在Blender中对分离出的物体进行精细化编辑,包括颜色、纹理调整,甚至加入新物体或改变相机视角。
3. 生成式合成:使用扩散模型(如SD v2.1)对编辑后的粗渲染图像进行视觉增强,保持全局一致性的同时优化细节。

为提高效果,团队还引入了两项训练技巧:源遮挡(随机遮蔽部分源图以提升恢复能力)和模拟物体抖动(模拟随机偏移以增强解耦能力)。

应用场景丰富

Blender Fusion在多种场景中表现出色:
- 单幅图像处理:灵活变换物体位置、复制物体或改变视角。
- 多图像重组:将不同图像中的物体组合成全新场景。
- 泛化能力:成功应用于训练未见过的物体和场景。

这一框架让用户摆脱了复杂的提示词操作,像搭积木一样自由创作。无论是AI从业者还是普通用户,都能更直观地实现理想画面。

论文地址:https://arxiv.org/abs/2506.17450
项目页面:https://blenderfusion.github.io/#compositing

原文链接
本文链接:https://kx.umi6.com/article/21139.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
哈佛天才再创业,医学版「谷歌」来了
2025-07-18 17:43:19
H20芯片解禁幕后:黄仁勋赴白宫向特朗普力陈“放弃中国市场是严重错误”
2025-07-18 13:41:13
工信部:加快实施“人工智能+”行动 推动大模型在制造业重点行业落地部署
2025-07-18 16:44:49
24小时热文
更多
扫一扫体验小程序