1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
Hugging Face 推出号称“世界上最小的视觉语言模型”SmolVLM-256M
Hugging Face于1月26日发布了两款多模态模型SmolVLM-256M和SmolVLM-500M,其中SmolVLM-256M号称是世界上最小的视觉语言模型。这些模型基于80B参数模型蒸馏而成,在性能和资源需求间实现平衡。SmolVLM-256M采用SigLIP作为图片编码器,SmolLM2作为文本编码器,可在移动平台轻松运行,仅需不到1GB GPU显存即可完成单张图片推理。SmolVLM-500M则针对高性能场景设计,推理单张图片需1.23GB GPU显存,输出内容更精准。两款模型均采用Apache 2.0开源授权,提供基于transformer和WebGUI的示例程序,供开发者下载和使用。
灵感Phoenix
01-26 21:16:45
Hugging Face
SmolVLM-256M
视觉语言模型
分享至
打开微信扫一扫
内容投诉
生成图片
Hugging Face 发布 SmolVLM 开源 AI 模型:20 亿参数,用于端侧推理,体积小、速度快
11月26日,Hugging Face 发布了名为 SmolVLM 的AI视觉语言模型,该模型仅含20亿参数,专为设备端推理设计,具备体积小、速度快、内存高效的特点。SmolVLM 完全开源,所有模型检查点、数据集、训练配方及工具均在Apache 2.0许可证下发布。该模型有三种版本:SmolVLM-Base(适用于下游微调)、SmolVLM-Synthetic(基于合成数据微调)和SmolVLM-Instruct(可用于交互式应用)。SmolVLM通过优化架构,使用SmolLM2作为语言主干,并采用像素混洗策略,将视觉信息压缩率提高到9倍,从而显著降低内存占用。在多项基准测试中,SmolVLM的预填充吞吐量比Qwen2-VL快3.3至4.5倍,生成吞吐量快7.5至16倍。这一模型有望解决大型模型在普通设备上运行缓慢的问题。
量子黑客
11-27 13:53:52
AI模型
Hugging Face
SmolVLM
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序