1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:谷歌&MIT何恺明团队:视觉大模型像LLM一样高效扩展

谷歌&MIT何恺明团队联手,提出了一种新的自回归文生图模型——Fluid。该模型基于连续token,而非离散token,且采用随机顺序生成图像,而非传统的光栅顺序。研究发现,基于连续token的模型在视觉质量上优于离散token模型,随机顺序生成的图像在GenEval测试中的得分更高。

Fluid模型在MS-COCO 30K数据集上zero-shot条件下实现了6.16的FID分数,并在GenEval基准测试中获得0.69的整体得分。团队希望这些发现能鼓励未来的研究,进一步缩小视觉和语言模型之间的规模差距。

回顾过去,自回归图像生成模型受限于离散token和光栅顺序。Fluid摒弃了离散token,采用连续token,并借鉴扩散模型的思想,用小型去噪网络近似每个token的连续分布。在推理时,模型无需离散化,避免了量化损失。

Fluid还采用了类似BERT的双向注意力机制,以随机顺序生成token,从而捕捉全局信息。训练和推理过程中的序列分布一致性更强,同时通过温度采样提升生成多样性。模型参数扩展至100亿以上,在MS-COCO和GenEval数据集上取得了领先结果。

随着参数量和训练轮数的增加,模型在验证损失、FID、GenEval Score等指标上表现出良好的可扩展性,这与语言模型的Scaling现象相似,表明视觉大模型的潜力未被充分挖掘。

论文地址:https://arxiv.org/abs/2410.13863

原文链接
本文链接:https://kx.umi6.com/article/7577.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
谷歌&MIT何恺明团队:视觉大模型像LLM一样高效扩展
2024-10-20 20:01:11
IDEA研究院发布DINO-X目标检测视觉大模型
2024-11-22 20:10:15
字节视觉大模型负责人杨建朝今日内部官宣休息,周畅接任
2025-07-17 17:28:24
加码视觉大模型领域 安凯微拟2000万元增资视启未来 软硬件协同成发展重点
2025-09-19 21:20:51
无需人类或GPT-4打标签!南大&旷视研究院无监督范式大幅降低视觉大模型对齐成本
2024-06-23 12:49:46
河南“十五五”规划建议:全面实施“人工智能+”行动 建设重点行业领域垂直大模型
2025-12-08 08:15:51
美的“美罗 U”首曝,行业首创六臂轮足式人形机器人
2025-12-07 15:33:32
机器人集体到香港户外自主极限挑战,四足比人形强
2025-12-08 15:34:35
智谱 GLM-4.6V 系列多模态 AI 大模型发布并开源,API 降价 50%
2025-12-08 20:45:30
广西“十五五”规划建议:高标准建设中国—东盟国家人工智能应用合作中心
2025-12-07 10:23:39
OpenAI、阿里、字节们的AI硬件战事:害怕错过下一代入口
2025-12-06 12:27:46
阴和俊:在量子科技等领域布局建设未来产业 加强对国家重大科技任务和科技型企业的金融支持
2025-12-08 10:23:04
“人工智能教父” 辛顿:即便 AI 重塑编程行业,计算机科学学位仍具重要价值
2025-12-08 08:12:37
24小时热文
更多
扫一扫体验小程序