综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
上海AI Lab与南京大学、港中大合作推出了Prism框架,通过两阶段设计解耦视觉语言模型(VLM)的感知和推理,显著提高处理视觉任务的效率。研究发现,2B模型配合ChatGPT可达到10倍参数量VLM的性能,Prism展示了小规模VLM通过外部LLM提升的重要性和大模型推理能力对整体性能的限制。团队开发的专注感知的轻量级模型PrismCaptioner,通过与LLM整合,表现出优于端到端模型的性能。Prism框架为视觉语言模型研究和应用带来了新思路,论文已发表于arXiv。
原文链接
加载更多
暂无内容