1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

2025年7月,智谱开源了仅9B大小的视觉语言模型GLM-4.1V-9B-Thinking,在28项评测中斩获23个SOTA,成为10B级别中效果最好的VLM模型。该模型在18项评测中表现超越参数量达其8倍的Qwen-2.5-VL-72B,核心优势在于引入了思维链(Chain-of-Thought)推理机制和课程采样强化学习(RLCS)。浦东创投集团和张江集团已对该项目投资10亿元,首笔资金将近期到位。GLM-4.1V-9B-Thinking具备多模态深度推理能力,可处理超长视频解析、智能读图问答、理科解题、专业文档处理等任务,并已在数学题解答、图像分析等场景中展现优异表现。相关论文、代码及模型已开源,详见arXiv与各大平台链接。

原文链接
本文链接:https://kx.umi6.com/article/21072.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
首创像素空间推理,7B模型领先GPT-4o,让VLM能像人类一样「眼脑并用」
2025-06-09 18:31:59
刚刚,小红书开源了首个多模态大模型dots.vlm1,性能直追SOTA!
2025-08-08 16:14:57
Hugging Face 最小 AI 视觉语言模型登场:2.56 亿参数,内存低于 1GB PC 也能驾驭
2025-01-24 11:41:33
9B“小”模型干了票“大”的:性能超8倍参数模型,拿下23项SOTA | 智谱开源
2025-07-02 13:05:58
北大清华等联合发布 LLaVA-o1:首个自发性视觉 AI 模型,推理计算 Scaling 新思路
2024-11-19 11:41:37
太可怕了!AI大模型已学会人类空间思考能力
2025-06-22 22:18:27
谷歌 DeepMind 发布 WebLI-100B:千亿级数据集解锁 AI 视觉语言模型的文化多样性
2025-02-14 15:43:06
只需将感知推理能力拆分,2B大模型就能战胜20B,国产新框架高效处理视觉任务
2024-07-03 04:26:59
Hugging Face 推出号称“世界上最小的视觉语言模型”SmolVLM-256M
2025-01-26 21:16:45
AI们数不清六根手指,这事没那么简单
2025-07-11 11:37:35
无需参数访问!CMU用大模型自动优化视觉语言提示词 | CVPR’24
2024-11-07 10:13:00
视觉语言模型安全升级,还不牺牲性能!技术解读一文看懂|淘天MMLab南大重大出品
2025-01-17 12:16:08
中信建投:计算机板块上半年业绩持续改善 看好AI软件&硬件、信创等板块投资机会
2025-09-05 09:17:05
24小时热文
更多
扫一扫体验小程序