1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

嚯!大语言扩散模型来了,何必只预测下一个token | 人大高瓴&蚂蚁

用扩散模型替代自回归,大模型的逆诅咒有解了! 人大高瓴人工智能研究院、蚂蚁共同提出LLaDA(a Large Language Diffusion with mAsking)。LLaDA-8B在上下文学习方面与LLaMA3-8B能力相当,且在反转诗歌任务中超越GPT-4o。

反转诗歌任务用于评估模型处理双向依赖关系和逻辑推理能力。自回归模型预测下一个token时表现不佳,而LLaDA基于扩散模型,能更好捕捉文本双向依赖关系。研究显示,LLaDA挑战了LLMs关键能力与自回归模型间的固有联系。

LLaDA仅用13万H800GPU时训练2.3万亿token语料,并对450万对token进行SFT。研究提出自回归是否是实现LLMs智能的唯一路径。LLaDA通过正向掩码和反向预测机制,增强模型双向依赖关系捕捉能力。

在语言理解、数学、代码和中文等任务中,LLaDA表现强劲。上下文学习方面,LLaDA-8B在15个标准任务上超越LLaMA2-7B,并与LLaMA3-8B相当。指令遵循能力和反转推理能力均有所提升,尤其在反转诗歌任务中,LLaDA表现优于GPT-4o。

LLaDA使用Transformer架构,不使用因果掩码,能同时看到输入序列的所有token。正向掩码过程采用随机掩码机制,模型目标是预测被掩码的token。SFT阶段优化模型,使其在特定任务上表现更好。

在生成任务中,LLaDA通过反向采样过程生成文本,平衡生成效率和质量。在条件概率评估任务中,LLaDA评估模型条件概率。实际应用中,LLaDA解决了数学推理和编程问题,获得国内外关注。

本研究由人大高瓴人工智能学院与蚂蚁集团共同完成,通讯作者为李崇轩。

原文链接
本文链接:https://kx.umi6.com/article/13645.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
AI教父Hinton中国首次演讲实录:人类可能就是大语言模型
2025-07-26 17:44:18
AI竞技场,归根到底只是一门生意
2025-08-06 15:37:54
拒绝“熵崩塌”和“熵爆炸”!这项研究让大模型推理成绩飙升
2025-10-13 18:02:32
GAN已死?GAN万岁!布朗康奈尔新作爆火,一夜碾压扩散模型
2025-01-11 17:39:16
全球AI顶会 NeurIPS 2024温哥华开幕,中国校企上百篇论文被收录
2024-12-11 16:36:37
我被AI骗了
2025-02-27 14:24:34
VAE再被补刀!清华快手SVG扩散模型亮相,训练提效6200%,生成提速3500%
2025-10-28 15:54:58
AI无处不在的小应用,与行业发展的大困局
2025-09-22 16:01:16
从归因图到AI 的“生物学”:探索Claude3.5 Haiku 的内部机制“中”
2025-06-01 15:22:01
arXiv创始人亲测:水论文这一块,Grok最强,Claude最不配合
2026-03-09 13:40:43
Meta人事巨震、AI教母站台 通往AGI之路遇上分岔路口
2025-11-15 10:46:28
自诩无所不知的大模型,能否拯救笨手笨脚的机器人?
2025-05-06 09:49:31
跳过“逐字生成”!蚂蚁集团赵俊博:扩散模型让我们能直接修改Token | MEET2026
2025-12-12 12:47:17
24小时热文
更多
扫一扫体验小程序