分割、识别、解说一个模型搞定!3B参数刷新视觉理解SOTA,图像视频全适配
可以输出语义的「分割一切模型2.0」来了!一次交互即可实现「分割+识别+解释+描述」,同时支持图像、视频和长视频,文本&Mask同步输出!
由港中文MMLab、港理工、北京大学等机构开源的PAM(Perceive Anything Model)模型,基于SAM2强大的分割与追踪能力,还能输出丰富的语义信息。为训练这一模型,PAM团队构建了超大规模高质量数据集,包含150万个图像区域和60万个视频区域标注。
实验结果显示,PAM仅用3B参数就在多个图像和视频理解基准上刷新或逼近SOTA,且推理效率更高、显存占用更低,实现性能与轻量化的统一。所有数据已完全开源。
PAM不仅能准确定位物体,还能输出其类别、解释和描述。在视频任务中,它支持整段描述和流式描述,只需一次点击即可并行输出Mask和文本。此外,PAM的工作原理是通过Semantic Perceiver连接SAM2和LLM,高效“翻译”视觉特征为多模态Token,并使用1.5B/3B参数的LLM head输出丰富语义信息。
为支撑训练,PAM构建了大规模数据集,包括图像的三连注释(类别、解释、描述)和视频的Storyboard驱动式理解及流式视频字幕。实验显示,PAM-3B在多个基准测试中以更小参数规模刷新或并列SOTA,且推理速度更快、显存占用更低。
原文链接
本文链接:https://kx.umi6.com/article/20238.html
转载请注明文章出处
相关推荐
.png)
换一换
月之暗面发布 Kimi k1.5 多模态思考模型,实现 SOTA 级多模态推理能力
2025-01-20 23:25:35
杨植麟被梁文锋叫醒了!Kimi新模型发布即开源,1T参数全线SOTA
2025-07-12 13:50:53
分割/识别/解说一个模型搞定!3B参数刷新视觉理解SOTA,图像视频全适配
2025-06-14 20:40:35
GPT-4o-Image仅完成28.9%任务!上海AI实验室等发布图像编辑新基准,360道人类专家严选难题
2025-05-30 15:52:41
按需搭配一键叠穿,效果拿下新SOTA!中山大学&字节智创数字人团队提出虚拟试穿新框架
2024-07-02 14:50:22
GPT-4o攻破ARC-AGI无法被挑战的神话,71%准确率成新SOTA
2024-06-20 14:13:43
豆包可以跟你打视频了,陪我看《甄嬛传》还挺懂!难倒一众AI的“看时钟”也没难倒它
2025-05-26 17:30:40
4090玩转大场景几何重建,RGB渲染和几何精度达SOTA|上海AI Lab&西工大新研究
2025-04-13 19:51:00
1/15成本,实现AI水印新SOTA | 南洋理工大学&A*STAR
2025-05-31 13:06:45
豆包上线视频通话功能:支持实时问答互动,具备视觉理解能力
2025-05-23 19:20:17
达摩院开源VideoLLaMA3:仅7B大小,视频理解拿下SOTA | 在线可玩
2025-02-14 12:34:39
悬赏800万的超难测试集,被GPT-4o实现新SOTA,准确率已达50%
2024-06-18 15:31:25
纯蒸馏模型 SOTA 出现!直接 SFT 成本直降 50 倍,数据已全部开源
2025-05-22 11:30:40
493 文章
202569 浏览
24小时热文
更多

-
2025-09-21 23:49:45
-
2025-09-21 22:50:30
-
2025-09-21 22:49:22