嚯!大语言扩散模型来了,何必只预测下一个token | 人大高瓴&蚂蚁
用扩散模型替代自回归,大模型的逆诅咒有解了! 人大高瓴人工智能研究院、蚂蚁共同提出LLaDA(a Large Language Diffusion with mAsking)。LLaDA-8B在上下文学习方面与LLaMA3-8B能力相当,且在反转诗歌任务中超越GPT-4o。
反转诗歌任务用于评估模型处理双向依赖关系和逻辑推理能力。自回归模型预测下一个token时表现不佳,而LLaDA基于扩散模型,能更好捕捉文本双向依赖关系。研究显示,LLaDA挑战了LLMs关键能力与自回归模型间的固有联系。
LLaDA仅用13万H800GPU时训练2.3万亿token语料,并对450万对token进行SFT。研究提出自回归是否是实现LLMs智能的唯一路径。LLaDA通过正向掩码和反向预测机制,增强模型双向依赖关系捕捉能力。
在语言理解、数学、代码和中文等任务中,LLaDA表现强劲。上下文学习方面,LLaDA-8B在15个标准任务上超越LLaMA2-7B,并与LLaMA3-8B相当。指令遵循能力和反转推理能力均有所提升,尤其在反转诗歌任务中,LLaDA表现优于GPT-4o。
LLaDA使用Transformer架构,不使用因果掩码,能同时看到输入序列的所有token。正向掩码过程采用随机掩码机制,模型目标是预测被掩码的token。SFT阶段优化模型,使其在特定任务上表现更好。
在生成任务中,LLaDA通过反向采样过程生成文本,平衡生成效率和质量。在条件概率评估任务中,LLaDA评估模型条件概率。实际应用中,LLaDA解决了数学推理和编程问题,获得国内外关注。
本研究由人大高瓴人工智能学院与蚂蚁集团共同完成,通讯作者为李崇轩。
原文链接
本文链接:https://kx.umi6.com/article/13645.html
转载请注明文章出处
相关推荐
换一换
诚恳认错坚决不改 为什么AI总扯谎:原因揭开
2026-02-24 13:46:39
扩散语言模型写代码!速度比自回归快10倍
2025-07-10 17:26:44
从蛰伏到王炸,RL启示录
2025-03-25 19:11:14
华人团队终结Token危机:扩散模型数据潜力超自回归三倍
2025-08-13 17:38:29
基准测试揭秘大模型“字数危机”:26个模型长文本生成普遍拉胯,最大输出长度过度宣传
2025-05-29 15:34:10
突破瓶颈!北航ETH等首次将扩散模型完全量化至1bit,28倍存储节省+52.7倍效率提升
2025-01-11 12:37:26
从蛰伏到王炸,RL启示录
2025-03-31 14:32:31
何必DiT!字节首次拿着自回归,单GPU一分钟生成5秒720p视频 | NeurIPS’25 Oral
2025-11-14 13:59:52
OpenAI 被曝正开发全新 AI 大语言模型:代号“大蒜”,性能超越谷歌 Gemini 3
2025-12-03 00:43:57
腾讯公布大语言模型训练专利 可提高模型准确性
2025-02-08 14:29:56
全球AI顶会 NeurIPS 2024温哥华开幕,中国校企上百篇论文被收录
2024-12-11 16:36:37
李飞飞一年前究竟说了啥?怎么又火了
2025-09-11 14:55:23
AI无处不在的小应用,与行业发展的大困局
2025-09-22 16:01:16
663 文章
457177 浏览
24小时热文
更多
-
2026-03-09 21:13:27 -
2026-03-09 20:09:26 -
2026-03-09 20:09:18