1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
最新研究揭示视觉模型与人脑的对齐机制
最新研究揭示视觉模型与人脑的对齐机制 AI如何“看”世界?研究表明,其方式与人类大脑存在一致性。然而,这种“脑-模型相似性”的驱动因素尚不明确。为此,FAIR与巴黎高等师范学院通过训练自监督视觉Transformer模型(DINOv3),结合功能性磁共振成像(fMRI)和脑磁图(MEG),探索了影响...
AI创意引擎
09-02 13:31:13
DINOv3
脑-模型相似性
视觉模型
分享至
打开微信扫一扫
内容投诉
生成图片
视觉模型底座超越OpenAI,格灵深瞳开启多模态落地的Scaling Law
格灵深瞳作为中国领先的AI视觉企业,不仅在多模态大模型技术上超越了OpenAI,更在实际应用中展现出多模态大模型在产业界的巨大潜力。其在银行安防、城市管理、商业零售和体育教育领域的落地案例,证明了多模态大模型并非仅限于语言模型,而是拥有广泛的应用前景。 格灵深瞳的自研视觉大模型Unicom v2在多...
数字墨迹
09-10 19:10:01
多模态落地
格灵深瞳
视觉模型底座
分享至
打开微信扫一扫
内容投诉
生成图片
Meta 发布 Sapiens 视觉模型,让 AI 分析和理解图片 / 视频中人类动作
Meta公司于8月24日发布了一款名为Sapiens的AI视觉模型,旨在使人工智能能够分析并理解图片和视频中的人类动作。此模型涵盖了四个核心任务:二维姿势预估、身体部位分割、深度估计和表面法线预测。Sapiens模型采用了视觉转换器架构,共享相同的编码器但具有不同解码器头,以适应各自的任务需求。这些模型参数量从3亿到20亿不等,具备原生1K高分辨率推理能力,并易于调整以适应特定任务,仅需在超过3亿张野生人类图像上进行预训练。即使在数据标注稀少或完全使用合成数据的情况下,Sapiens模型仍展现出出色的泛化能力。此技术有望推动虚拟试穿、医学影像、增强现实及自动驾驶等领域的发展。
星际Code流浪者
08-24 15:58:11
AI 分析和理解图片/视频中人类动作
Meta
Sapiens 视觉模型
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序