1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:谷歌&MIT何恺明团队:视觉大模型像LLM一样高效扩展

谷歌&MIT何恺明团队联手,提出了一种新的自回归文生图模型——Fluid。该模型基于连续token,而非离散token,且采用随机顺序生成图像,而非传统的光栅顺序。研究发现,基于连续token的模型在视觉质量上优于离散token模型,随机顺序生成的图像在GenEval测试中的得分更高。

Fluid模型在MS-COCO 30K数据集上zero-shot条件下实现了6.16的FID分数,并在GenEval基准测试中获得0.69的整体得分。团队希望这些发现能鼓励未来的研究,进一步缩小视觉和语言模型之间的规模差距。

回顾过去,自回归图像生成模型受限于离散token和光栅顺序。Fluid摒弃了离散token,采用连续token,并借鉴扩散模型的思想,用小型去噪网络近似每个token的连续分布。在推理时,模型无需离散化,避免了量化损失。

Fluid还采用了类似BERT的双向注意力机制,以随机顺序生成token,从而捕捉全局信息。训练和推理过程中的序列分布一致性更强,同时通过温度采样提升生成多样性。模型参数扩展至100亿以上,在MS-COCO和GenEval数据集上取得了领先结果。

随着参数量和训练轮数的增加,模型在验证损失、FID、GenEval Score等指标上表现出良好的可扩展性,这与语言模型的Scaling现象相似,表明视觉大模型的潜力未被充分挖掘。

论文地址:https://arxiv.org/abs/2410.13863

原文链接
本文链接:https://kx.umi6.com/article/7577.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
字节视觉大模型负责人杨建朝今日内部官宣休息,周畅接任
2025-07-17 17:28:24
IDEA研究院发布DINO-X目标检测视觉大模型
2024-11-22 20:10:15
谷歌&MIT何恺明团队:视觉大模型像LLM一样高效扩展
2024-10-20 20:01:11
加码视觉大模型领域 安凯微拟2000万元增资视启未来 软硬件协同成发展重点
2025-09-19 21:20:51
无需人类或GPT-4打标签!南大&旷视研究院无监督范式大幅降低视觉大模型对齐成本
2024-06-23 12:49:46
阿里开源全新图像模型Qwen-Image-Layered,可实现PS级图层精准编辑生成
2025-12-22 16:50:23
白宫加密与AI顾问 :美国传统银行与加密行业最终将融合为数字资产行业
2026-01-22 16:00:45
黄仁勋:AI时代蓝领更吃香 水管工、电工能拿六位数薪水
2026-01-22 07:42:15
大学开始用AI招生了
2026-01-22 15:58:41
事关AI聊天机器人和自动驾驶!马斯克和奥尔特曼隔空互喷
2026-01-21 20:25:45
马斯克:年底将出现比人类更聪明的AI 能源是AI最大限制因素
2026-01-23 10:47:05
突发!xAI联创杨格过劳病离职,给马斯克干活压力山大
2026-01-21 17:21:29
黄仁勋谈AI泡沫:泡沫产生是因为投资规模空前庞大 巨额投资是为了构建AI基础设施
2026-01-22 16:01:49
24小时热文
更多
扫一扫体验小程序