1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:大模型难懂视频,GPT-4o正确率仅36%,南洋理工推出新基准

正文:
视频大型语言模型(Video LLMs)虽能描述视频内容并回答问题,但其是否真正“理解”视频仍是疑问。为解答这一问题,南洋理工大学S-Lab团队提出全新基准测试——Video Thinking Test(Video-TT),旨在分离“看”与“想”的能力,精准评估AI的视频理解与推理水平。

研究发现:
1. 人类在视频理解的准确率和鲁棒性上远超SOTA模型(50%)。
2. 开源模型在鲁棒性上逊色于GPT-4o。
3. GPT-4o短板明显:对模糊或非常规内容识别弱,难处理多场景区分与因果关系,缺乏世界知识与深层意图理解。

现有视频理解基准存在缺陷,无法区分模型因“没看清”还是“没想明白”出错。Video-TT通过精选1000条YouTube短视频,确保答案可在80帧内找到,避免了长视频采样不足与短视频天花板效应的问题,直击AI“思考”核心。

问题设计聚焦两大维度:
- 视觉复杂度:包括模糊内容、运动速度、时空布局、视错觉等。
- 叙事复杂度:涵盖复杂情节、叙事剪辑、技术性剪辑、世界知识等。

此外,Video-TT为每个核心问题配备四种“自然对抗性问题”,如复述、正确诱导、错误诱导及多项选择题,以检验模型的鲁棒性。

评测结果显示:
- 人类表现优异,正确率84.3%,鲁棒性64.4%。
- GPT-4o正确率仅36.6%,鲁棒性36.0%,远低于人类。
- 开源模型在开放式问题上差距显著,说明现有基准可能高估模型能力。

进一步分析发现,GPT-4o主要问题在于:
1. 时空混淆:难以追踪物体或定位事件序列。
2. 常识缺失:无法理解角色情感或社会动态。
3. 复杂情节理解失败:难以串联跨场景因果关系。

Video-TT揭示了当前AI在视频理解上的巨大鸿沟,提示研究者需继续深入探索。

论文链接:https://arxiv.org/abs/2507.15028
数据集:https://huggingface.co/datasets/lmms-lab/video-tt
项目主页:https://zhangyuanhan-ai.github.io/video-tt/

原文链接
本文链接:https://kx.umi6.com/article/22866.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
国内首个!商汤科技发布“日日新5o”,实时多模态流式交互对标GPT-4o
2024-07-05 21:18:05
GPT-4o怎么抢了Midjourney的饭碗
2025-04-11 11:41:06
提示词用上“过去式“,秒破GPT4o等六大模型安全限制!中文语境也好使
2024-07-19 15:57:37
只给一张Doge图,GPT-4o就帮我画好一整个RPG游戏
2025-03-31 20:50:34
微软 Copilot 已支持 GPT-4o 图像生成技术,能力大提升
2025-05-19 19:24:47
通义千问、GPT-4o 等七款 AI 大模型“高考成绩”公布 :前三名文科过一本,理科过二本
2024-07-18 16:25:31
OpenAI玩崩了,GPT-4o更新后变马屁精差评如潮
2025-04-30 20:00:48
GPT-4o的多模态生图,让整个设计圈都开始emo了
2025-03-28 14:52:39
OpenAI最新技术报告:GPT-4o变谄媚的原因万万没想到
2025-05-03 12:30:15
反超DeepSeek!新版GPT-4o登顶竞技场,奥特曼:还会更好
2025-02-17 12:49:05
研究显示 GPT-4o 会为“自保”而避免“被关闭”,牺牲用户利益也在所不惜
2025-06-12 08:28:18
GPT-4即将“退役”!OpenAI宣布本月末起它将被GPT-4o替代
2025-04-14 16:42:54
GPT-5刚出,人们为什么又怀念GPT-4o
2025-08-11 08:57:55
24小时热文
更多
扫一扫体验小程序