分割、识别、解说一个模型搞定!3B参数刷新视觉理解SOTA,图像视频全适配
可以输出语义的「分割一切模型2.0」来了!一次交互即可实现「分割+识别+解释+描述」,同时支持图像、视频和长视频,文本&Mask同步输出!
由港中文MMLab、港理工、北京大学等机构开源的PAM(Perceive Anything Model)模型,基于SAM2强大的分割与追踪能力,还能输出丰富的语义信息。为训练这一模型,PAM团队构建了超大规模高质量数据集,包含150万个图像区域和60万个视频区域标注。
实验结果显示,PAM仅用3B参数就在多个图像和视频理解基准上刷新或逼近SOTA,且推理效率更高、显存占用更低,实现性能与轻量化的统一。所有数据已完全开源。
PAM不仅能准确定位物体,还能输出其类别、解释和描述。在视频任务中,它支持整段描述和流式描述,只需一次点击即可并行输出Mask和文本。此外,PAM的工作原理是通过Semantic Perceiver连接SAM2和LLM,高效“翻译”视觉特征为多模态Token,并使用1.5B/3B参数的LLM head输出丰富语义信息。
为支撑训练,PAM构建了大规模数据集,包括图像的三连注释(类别、解释、描述)和视频的Storyboard驱动式理解及流式视频字幕。实验显示,PAM-3B在多个基准测试中以更小参数规模刷新或并列SOTA,且推理速度更快、显存占用更低。
原文链接
本文链接:https://kx.umi6.com/article/20238.html
转载请注明文章出处
相关推荐
换一换
DeepSeek V4 Lite悄然更新:2000亿小参数性能逼近美国顶流
2026-03-03 11:57:04
全球SOTA编程模型MiniMax M2.5上线
2026-02-12 14:30:28
4090玩转大场景几何重建,RGB渲染和几何精度达SOTA|上海AI Lab&西工大新研究
2025-04-13 19:51:00
那个用半成品刷爆SOTA的Qwen3超大杯推理版,现在正式上线
2026-01-27 00:41:43
分割/识别/解说一个模型搞定!3B参数刷新视觉理解SOTA,图像视频全适配
2025-06-14 20:40:35
按需搭配一键叠穿,效果拿下新SOTA!中山大学&字节智创数字人团队提出虚拟试穿新框架
2024-07-02 14:50:22
月之暗面发布k1.5多模态思考模型
2025-01-20 23:27:40
豆包上线视频通话功能:支持实时问答互动,具备视觉理解能力
2025-05-23 19:20:17
GPT-4o-Image仅完成28.9%任务!上海AI实验室等发布图像编辑新基准,360道人类专家严选难题
2025-05-30 15:52:41
开源Qwen一周连刷三冠,暴击闭源模型!基础模型推理编程均SOTA
2025-07-26 13:39:05
美团发布高效推理模型 LongCat-Flash-Thinking,达到 SOTA 水平
2025-09-22 15:58:35
多亏Transformer,Mamba更强了!仅用1%计算量达新SOTA
2024-08-22 17:19:58
豆包大模型1.6-vision正式发布
2025-09-30 16:34:50
664 文章
498080 浏览
24小时热文
更多
-
2026-03-10 10:03:26 -
2026-03-10 10:02:35 -
2026-03-10 09:02:22