8月28日,字节跳动推出全新视频生成模型OmniHuman-1.5。该模型结合多模态大语言模型与扩散Transformer技术,模拟‘深思规划’与‘直觉反应’两种思维模式,可生成超一分钟的高质量动态视频,支持流畅镜头运动、复杂角色互动及高度动态动作表现。这一创新标志着视频生成领域的重要突破,为内容创作带来更多可能性。
原文链接
本文链接:https://kx.umi6.com/article/24377.html
转载请注明文章出处
相关推荐
换一换
字节视觉-语言多模态大模型Seed VLM技术报告首次公开
2025-05-13 14:57:31
字节和百度竞争升级
2025-05-31 11:02:44
字节跳动回应“AI眼镜”报道
2025-08-25 14:33:27
字节这款 AI 应用,在海外悄悄「爆了」
2025-10-22 10:43:14
张一鸣重回公司一线?知情人士:往返北京和新加坡 每月参与复盘和讨论会
2025-06-20 14:01:48
字节藏了一手牌
2025-07-12 18:53:26
徐新上车了:买了字节跳动老股
2025-11-21 18:35:27
视频生成模型大盘点:谁能定义下一代内容?
2025-08-07 20:57:55
豆包发布视频生成模型Seedance1.0 pro
2025-06-11 12:13:43
字节Seed团队推出3D生成大模型Seed3D 1.0
2025-10-23 16:12:12
字节跳动发布图像编辑模型 SeedEdit 3.0,处理更加丝滑高效
2025-06-06 16:37:39
字节跳动发布豆包 1.5 深度思考模型,同时升级文生图模型
2025-04-17 11:33:28
消息称字节跳动内部将禁用第三方 AI 开发软件,用自家 Trae 替代
2025-05-28 17:01:31
728 文章
466777 浏览
24小时热文
更多
-
2026-01-23 00:20:44 -
2026-01-22 23:18:34 -
2026-01-22 23:17:29