分割、识别、解说一个模型搞定!3B参数刷新视觉理解SOTA,图像视频全适配
可以输出语义的「分割一切模型2.0」来了!一次交互即可实现「分割+识别+解释+描述」,同时支持图像、视频和长视频,文本&Mask同步输出!
由港中文MMLab、港理工、北京大学等机构开源的PAM(Perceive Anything Model)模型,基于SAM2强大的分割与追踪能力,还能输出丰富的语义信息。为训练这一模型,PAM团队构建了超大规模高质量数据集,包含150万个图像区域和60万个视频区域标注。
实验结果显示,PAM仅用3B参数就在多个图像和视频理解基准上刷新或逼近SOTA,且推理效率更高、显存占用更低,实现性能与轻量化的统一。所有数据已完全开源。
PAM不仅能准确定位物体,还能输出其类别、解释和描述。在视频任务中,它支持整段描述和流式描述,只需一次点击即可并行输出Mask和文本。此外,PAM的工作原理是通过Semantic Perceiver连接SAM2和LLM,高效“翻译”视觉特征为多模态Token,并使用1.5B/3B参数的LLM head输出丰富语义信息。
为支撑训练,PAM构建了大规模数据集,包括图像的三连注释(类别、解释、描述)和视频的Storyboard驱动式理解及流式视频字幕。实验显示,PAM-3B在多个基准测试中以更小参数规模刷新或并列SOTA,且推理速度更快、显存占用更低。
原文链接
本文链接:https://kx.umi6.com/article/20238.html
转载请注明文章出处
相关推荐
换一换
阶跃星辰发布端到端语音大模型 Step-Audio 2 mini,多个基准测试取得 SOTA 成绩
2025-09-01 15:21:09
开源Qwen一周连刷三冠,暴击闭源模型!基础模型推理编程均SOTA
2025-07-26 13:39:05
多亏Transformer,Mamba更强了!仅用1%计算量达新SOTA
2024-08-22 17:19:58
月之暗面发布 Kimi k1.5 多模态思考模型,实现 SOTA 级多模态推理能力
2025-01-20 23:25:35
GPT-4o攻破ARC-AGI无法被挑战的神话,71%准确率成新SOTA
2024-06-20 14:13:43
美团发布高效推理模型 LongCat-Flash-Thinking,达到 SOTA 水平
2025-09-22 15:58:35
超越 GPT-5 Nano,阿里通义 Qwen3-VL 系列全新成员 4B 与 8B 模型开源上线
2025-10-15 13:33:22
悬赏800万的超难测试集,被GPT-4o实现新SOTA,准确率已达50%
2024-06-18 15:31:25
GPT-4o-Image仅完成28.9%任务!上海AI实验室等发布图像编辑新基准,360道人类专家严选难题
2025-05-30 15:52:41
杨植麟被梁文锋叫醒了!Kimi新模型发布即开源,1T参数全线SOTA
2025-07-12 13:50:53
1/15成本,实现AI水印新SOTA | 南洋理工大学&A*STAR
2025-05-31 13:06:45
豆包上线视频通话功能:支持实时问答互动,具备视觉理解能力
2025-05-23 19:20:17
豆包可以跟你打视频了,陪我看《甄嬛传》还挺懂!难倒一众AI的“看时钟”也没难倒它
2025-05-26 17:30:40
570 文章
357190 浏览
24小时热文
更多
-
2025-12-08 21:49:12 -
2025-12-08 21:48:42 -
2025-12-08 21:48:04