2月10日,豆包大模型团队联合北京交通大学、中国科学技术大学开发的视频生成模型“VideoWorld”开源。该模型首次实现无需依赖语言模型即可认知世界,专注于纯视觉信号学习。VideoWorld采用潜在动态模型高效压缩视频帧间变化信息,提升了知识学习效率和效果。无需强化学习搜索或奖励函数机制,已达到专业围棋水平并在多种环境中执行机器人任务。更多信息参见相关链接。
原文链接
本文链接:https://kx.umi6.com/article/13024.html
转载请注明文章出处
相关推荐
换一换
业界首个!豆包新模型搅动AI视觉
2025-02-10 15:16:21
豆包开源视频生成模型 VideoWorld:首创免语言模型依赖认知世界
2025-02-10 15:13:00
通义千问系列最强大的语言模型:Qwen3-Max-Preview 上线
2025-09-06 00:26:52
OpenAI 官宣将发布自 GPT-2 以来的首个开放权重语言模型,并具有推理功能
2025-04-01 08:14:11
豆包:视频生成模型“VideoWorld”可仅靠视觉认知世界 现已开源
2025-02-10 14:10:40
为什么DeepSeek回答前总先“嗯”一下
2025-04-30 20:17:08
OpenAI产品线大调整:GPT-5数月内发布,基础版免费无限使用
2025-02-13 15:03:24
o3/o4-mini幻觉暴增2-3倍!OpenAI官方承认暂无法解释原因
2025-04-21 13:38:37
大脑在不断预测并修正错误?
2025-04-30 19:56:24
LeCun最新万字演讲:纯语言模型到不了人类水平,我们基本已放弃
2024-10-18 09:36:11
谷歌 DeepMind 新研究强化思维链训练,让 AI 语言模型不再“纸上谈兵”
2025-05-20 14:40:51
AI视觉基础:学习压缩图像
2024-06-14 17:36:22
豆包团队视频生成新突破:无需语言模型,仅凭“视觉”就能学习复杂任务
2025-01-27 14:31:44
532 文章
251683 浏览
24小时热文
更多
-
2025-10-24 19:49:44 -
2025-10-24 18:49:31 -
2025-10-24 18:49:20