
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
9月1日,苹果公司在Hugging Face平台推出FastVLM视觉语言模型试用版,Mac用户现可体验“闪电级”视频字幕生成技术。FastVLM专为Apple Silicon芯片优化,速度较同类AI快85倍,模型体积仅为三分之一。新发布的FastVLM-0.5B轻量版可在浏览器中运行,支持本地数据处理,保护用户隐私。实测显示,在16GB M2 Pro MacBook Pro上,加载后可精准描述画面内容。该模型在可穿戴设备和辅助技术领域潜力巨大,或为未来智能眼镜等设备铺路。
原文链接
5月13日,苹果机器学习团队在GitHub开源了视觉语言模型FastVLM,提供0.5B、1.5B、7B三个版本。该模型基于苹果自研MLX框架开发,并借助LLaVA代码库训练,专为Apple Silicon设备优化。FastVLM的核心是FastViTHD混合视觉编码器,在保持精度的同时,实现高分辨率图像的近实时处理,所需计算量远低于同类模型。相比其他模型,FastVLM的体积更小、速度更快,尤其在移动端表现出色。苹果计划于2027年推出智能眼镜,FastVLM的技术将为其提供支持,助力实现设备的实时视觉交互。此外,FastVLM兼容主流AI开发语言,表明苹果正在构建端侧AI技术生态。
原文链接
加载更多

暂无内容
AI热搜
更多
