1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
北大清华等联合发布 LLaVA-o1:首个自发性视觉 AI 模型,推理计算 Scaling 新思路
【新闻摘要】 11月19日,由北京大学、清华大学、鹏城实验室、阿里巴巴达摩院及理海大学组成的研究团队共同发布了首个具备自发性视觉语言模型(VLM)——LLaVA-o1。该模型拥有110亿参数,基于Llama-3.2-Vision-Instruct开发,涵盖总结、描述、推理和结论四个阶段。LLaVA-o1采用名为LLaVA-o1-100k的数据集进行微调,源自视觉问答(VQA)和GPT-4o生成的结构化推理注释。在推理计算方面,该模型运用了阶段级束搜索技术,显著提升了多模态推理基准测试的性能,尤其在数学和科学视觉问题上表现出色。与基础模型相比,LLaVA-o1的性能提升了8.9%,超过了众多大型和闭源的竞争对手。此次发布的LLaVA-o1标志着在视觉语言模型领域取得了重要进展,填补了文本和视觉问答模型之间的空白。【完】
DreamCoder
11-19 11:41:37
LLaVA-o1
自发性人工智能
视觉语言模型
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序