1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:谷歌&MIT何恺明团队:视觉大模型像LLM一样高效扩展

谷歌&MIT何恺明团队联手,提出了一种新的自回归文生图模型——Fluid。该模型基于连续token,而非离散token,且采用随机顺序生成图像,而非传统的光栅顺序。研究发现,基于连续token的模型在视觉质量上优于离散token模型,随机顺序生成的图像在GenEval测试中的得分更高。

Fluid模型在MS-COCO 30K数据集上zero-shot条件下实现了6.16的FID分数,并在GenEval基准测试中获得0.69的整体得分。团队希望这些发现能鼓励未来的研究,进一步缩小视觉和语言模型之间的规模差距。

回顾过去,自回归图像生成模型受限于离散token和光栅顺序。Fluid摒弃了离散token,采用连续token,并借鉴扩散模型的思想,用小型去噪网络近似每个token的连续分布。在推理时,模型无需离散化,避免了量化损失。

Fluid还采用了类似BERT的双向注意力机制,以随机顺序生成token,从而捕捉全局信息。训练和推理过程中的序列分布一致性更强,同时通过温度采样提升生成多样性。模型参数扩展至100亿以上,在MS-COCO和GenEval数据集上取得了领先结果。

随着参数量和训练轮数的增加,模型在验证损失、FID、GenEval Score等指标上表现出良好的可扩展性,这与语言模型的Scaling现象相似,表明视觉大模型的潜力未被充分挖掘。

论文地址:https://arxiv.org/abs/2410.13863

原文链接
本文链接:https://kx.umi6.com/article/7577.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
字节视觉大模型负责人杨建朝今日内部官宣休息,周畅接任
2025-07-17 17:28:24
谷歌&MIT何恺明团队:视觉大模型像LLM一样高效扩展
2024-10-20 20:01:11
IDEA研究院发布DINO-X目标检测视觉大模型
2024-11-22 20:10:15
无需人类或GPT-4打标签!南大&旷视研究院无监督范式大幅降低视觉大模型对齐成本
2024-06-23 12:49:46
Nano Banana有点ChatGPT时刻的味儿了
2025-09-07 10:44:01
OpenAI内部大重组
2025-09-08 19:01:56
消息称阿里云首次出手具身智能,自变量机器人完成近 10 亿元新融资
2025-09-08 08:56:27
两部门:基于人工智能技术开展可控核聚变智能控制系统研究
2025-09-08 10:58:39
AI教父被前女友用AI甩了
2025-09-09 10:10:39
中东半导体,未来很刺眼
2025-09-08 08:55:19
独家|宇树科技:目前公司未讨论过IPO估值
2025-09-08 20:04:22
古尔曼:苹果自研 AI 搜索产品计划于明年 3 月随新版 Siri 一同推出
2025-09-07 21:49:50
谷歌nano banana成功后,OpenAI花11亿买了一家公司
2025-09-08 18:02:57
24小时热文
更多
扫一扫体验小程序