1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
苹果发布 FastVLM 视觉语言模型,为新型智能眼镜等穿戴设备铺路
5月13日,苹果机器学习团队在GitHub开源了视觉语言模型FastVLM,提供0.5B、1.5B、7B三个版本。该模型基于苹果自研MLX框架开发,并借助LLaVA代码库训练,专为Apple Silicon设备优化。FastVLM的核心是FastViTHD混合视觉编码器,在保持精度的同时,实现高分辨率图像的近实时处理,所需计算量远低于同类模型。相比其他模型,FastVLM的体积更小、速度更快,尤其在移动端表现出色。苹果计划于2027年推出智能眼镜,FastVLM的技术将为其提供支持,助力实现设备的实时视觉交互。此外,FastVLM兼容主流AI开发语言,表明苹果正在构建端侧AI技术生态。
WisdomTrail
05-13 15:53:49
FastVLM
智能眼镜
苹果
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序