
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2月10日,豆包大模型团队联合北京交通大学、中国科学技术大学开发的视频生成模型“VideoWorld”开源。该模型首次实现无需依赖语言模型即可认知世界,专注于纯视觉信号学习。VideoWorld采用潜在动态模型高效压缩视频帧间变化信息,提升了知识学习效率和效果。无需强化学习搜索或奖励函数机制,已达到专业围棋水平并在多种环境中执行机器人任务。更多信息参见相关链接。
原文链接
豆包团队提出的新视频生成模型VideoWorld,无需语言模型,仅凭“视觉”就能学习复杂任务。现有模型多依赖语言或标签数据,而语言无法全面捕捉真实世界的知识,如折纸、打领结等。VideoWorld采用潜在动态模型(LDM)压缩视频帧间的视觉变化信息,提升学习效率。在不依赖强化学习搜索或奖励函数的情况下,VideoWorld达到专业5段9×9围棋水平,并能在多种环境中执行机器人任务。VideoWorld通过LDM建模数据模式、辅助前向规划及生成因果相关编码,克服了视频学习中的冗余信息问题。团队希望未来解决高质量视频生成和多环境泛化的挑战,使视频生成模型成为通用知识学习器。
原文链接
加载更多

暂无内容