Hugging Face 于1月23日发布SmolVLM-256M-Instruct和SmolVLM-500M-Instruct两款AI视觉语言模型。前者仅含2.56亿参数,可在内存低于1GB的PC上运行,是目前最小的视觉语言模型;后者含5亿参数,旨在解决硬件资源受限问题。两款模型均采用SigLIP base patch-16/512视觉编码器,相较于前代每标记像素处理能力提升。SmolVLM模型支持图像描述、视频分析及PDF/科学图表问答等功能,提升了AI处理效率和可访问性。
原文链接
本文链接:https://kx.umi6.com/article/12123.html
转载请注明文章出处
相关推荐
.png)
换一换
阿里达摩院联合发布全球首个胃癌影像筛查 AI 模型 DAMO GRAPE
2025-06-25 19:33:44
摩尔线程支持 DeepSeek 开源周“全家桶”
2025-03-02 10:30:14
存储巨头们,都盯上了HBM
2025-03-09 14:45:47
444 文章
76833 浏览
24小时热文
更多

-
2025-07-19 10:50:54
-
2025-07-19 09:50:33
-
2025-07-19 07:49:30