5月13日,苹果机器学习团队在GitHub开源了视觉语言模型FastVLM,提供0.5B、1.5B、7B三个版本。该模型基于苹果自研MLX框架开发,并借助LLaVA代码库训练,专为Apple Silicon设备优化。FastVLM的核心是FastViTHD混合视觉编码器,在保持精度的同时,实现高分辨率图像的近实时处理,所需计算量远低于同类模型。相比其他模型,FastVLM的体积更小、速度更快,尤其在移动端表现出色。苹果计划于2027年推出智能眼镜,FastVLM的技术将为其提供支持,助力实现设备的实时视觉交互。此外,FastVLM兼容主流AI开发语言,表明苹果正在构建端侧AI技术生态。
原文链接
本文链接:https://kx.umi6.com/article/18527.html
转载请注明文章出处
相关推荐
.png)
换一换
苹果会成为第一家因为AI而掉队的巨头么?
2025-03-23 14:09:26
苹果AI落后原因曝光!2023年关键决策失误
2025-04-12 11:40:48
苹果准备放出AI底牌:向开发者开放大模型权限
2025-05-21 07:55:27
449 文章
68986 浏览
24小时热文
更多

-
2025-07-19 22:57:32
-
2025-07-19 21:58:20
-
2025-07-19 21:57:13