6月4日,英伟达发布基于Llama 3.1架构的Llama Nemotron Nano VL视觉-语言模型,专攻文档级理解任务。该模型整合CRadioV2-H视觉编码器与Llama 3.1语言模型,支持长达16K上下文处理,适用于多图像和复杂文本解析。模型分三阶段训练:图文预训练、多模态指令微调及文本指令优化,借助Megatron-LLM框架和A100/H100 GPU集群完成。在OCRBench v2测试中,其在OCR、表格解析及图表推理等任务上表现出色,尤其在结构化数据提取上媲美大规模模型。Llama Nemotron Nano VL支持灵活部署,兼容服务器与边缘设备,并提供4-bit量化版本,显著提升推理效率。此模型为企业文档处理提供高效解决方案。
原文链接
本文链接:https://kx.umi6.com/article/19739.html
转载请注明文章出处
相关推荐
换一换
英伟达发布 Llama Nemotron Nano VL AI:高效精准,攻克复杂文档解析难题
2025-06-05 08:46:44
英伟达发布 Eagle 2.5 视觉语言 AI 模型:8B 参数媲美 GPT-4o
2025-04-23 14:58:47
字节 Seed 开源 UI-TARS-1.5:基于视觉-语言模型构建的多模态智能体
2025-04-18 09:04:49
两个「卖铲」程序员,不到2年撬动7个亿
2025-12-01 07:53:25
GPT-4o 系列 AI 模型加持,微软 LlamaParse 文档解析能力全面升级
2024-11-28 14:33:00
只有0.9B的PaddleOCR-VL,却是现在最强的OCR模型
2025-10-24 16:47:14
性能超越DeepSeek-OCR2,百度发布并开源新一代SOTA OCR模型
2026-01-30 14:32:39
国家发展改革委主任:“十五五”末人工智能相关产业规模将增长到10万亿元以上
2026-03-06 16:15:23
英伟达投资的数据中心公司Nscale完成20亿美元融资 估值达146亿美元
2026-03-09 18:02:36
鹅厂门口爆满了!腾讯工程师在总部楼下免费安装OpenClaw
2026-03-06 15:12:11
谨防诈骗!OpenClaw创始人否认入驻微博等中文社交平台
2026-03-08 14:07:08
无锡高新区发布“养龙虾”12条 最高补贴500万
2026-03-09 14:47:52
脉脉:AI岗位量暴涨12倍 平均月薪超6万元领跑春招市场
2026-03-09 19:05:07
634 文章
445880 浏览
24小时热文
更多
-
2026-03-09 21:13:27 -
2026-03-09 20:09:26 -
2026-03-09 20:09:18