6月3日,谷歌DeepMind联合布朗大学开发了一项名为“力提示”的新技术,无需3D模型或物理引擎即可生成逼真运动的AI视频。用户可通过指定力的方向和强度操控生成内容,支持全局力与局部力两种模式。研究基于CogVideoX-5B-I2V模型加入ControlNet模块,利用Transformer架构生成每段含49帧的视频,仅用4台Nvidia A100 GPU训练一天完成。训练数据全为合成,涵盖多种物理场景。尽管数据有限,但模型展现出强大泛化能力,能适应新物体与场景,并初步掌握简单物理规则。测试显示其运动匹配度和真实感优于基准模型,但在复杂场景中仍有不足,如烟雾无视风力等问题。DeepMind CEO Demis Hassabis称,此技术是迈向通用AI的重要一步,未来AI可能通过模拟环境学习而非单纯依赖数据。
原文链接
本文链接:https://kx.umi6.com/article/19664.html
转载请注明文章出处
相关推荐
.png)
换一换
2030年AGI到来?谷歌DeepMind写了份“人类自保指南”
2025-04-07 14:01:02
AI 革新医疗:谷歌 DeepMind 首席执行官预测,十年内帮助消灭所有疾病
2025-04-23 14:57:44
AI重塑短剧创作
2024-07-25 13:44:15
453 文章
79325 浏览
24小时热文
更多

-
2025-07-19 22:57:32
-
2025-07-19 21:58:20
-
2025-07-19 21:57:13