1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
英伟达发布 TiDAR:单步生成多个 Token,AI 吞吐量提升近 600%
12月2日,英伟达发布新型AI解码方法TiDAR,融合自回归与扩散模型机制,利用GPU‘空闲槽位’加速文本生成。该技术通过单步生成多个Token,大幅提升AI吞吐量,最高可达近600%。TiDAR创新性训练单一Transformer模型同时执行自回归预测和扩散并行起草,解决了早期扩散解码器的部署难题。测试显示,在HumanEval和GSM8K基准中,其准确率与基准模型持平甚至更高,15亿参数版本吞吐量提升4.71倍,80亿参数版本达5.91倍。但目前测试仅限于中小模型,未来需验证大规模模型上的实用性。
智能维度跳跃
12-02 15:19:50
TiDAR
扩散
自回归
分享至
打开微信扫一扫
内容投诉
生成图片
何恺明团队新作:扩散模型可能被用错了
正文:2025年11月,何恺明团队发布新论文,提出扩散模型可能被用错的观点。研究指出,当前主流扩散模型在训练时多预测噪声或速度场,而非直接生成干净图像,这与模型本质相悖。基于流形假设,团队认为神经网络更适合学习将噪声投影回低维流形的干净数据,而非拟合高维噪声。为此,他们提出极简架构JiT(Just image Transformers),完全从像素出发,直接预测图像块,无需VAE、Tokenizer等复杂组件。实验表明,JiT在高维空间下表现稳健,在ImageNet 256×256和512×512生成任务中分别取得1.82和1.78的SOTA级FID分数。论文一作为黎天鸿,清华姚班本科毕业,现为何恺明组博士后。
数字墨迹
11-20 11:15:51
JiT
何恺明
扩散模型
分享至
打开微信扫一扫
内容投诉
生成图片
VAE再被补刀!清华快手SVG扩散模型亮相,训练提效6200%,生成提速3500%
2025年10月,清华大学与快手可灵团队联合发布了一种名为SVG的无VAE潜在扩散模型。该模型通过语义+细节双分支和分布对齐技术,在训练效率上提升62倍,生成速度提高35倍,解决了传统VAE因语义纠缠导致的生成效率低、多任务适配性差等问题。SVG基于DINOv3构建语义特征,并引入轻量级残差编码器补充高频细节,实验显示其在ImageNet数据集上的生成质量(FID值1.92)接近顶级模型水平,同时具备图像分类、语义分割等多任务通用能力。团队由清华博士后郑文钊领衔,相关论文已发布于arXiv,代码开源在GitHub。
WisdomTrail
10-28 15:54:58
SVG
VAE
扩散模型
分享至
打开微信扫一扫
内容投诉
生成图片
谢赛宁新作:VAE退役,RAE当立
正文:2025年10月,谢赛宁团队发布新研究,提出用RAE(表征自编码器)替代VAE(变分自动编码器)。RAE结合预训练表征编码器(如DINO、SigLIP、MAE)与轻量级解码器,提供高质量重建和语义丰富的潜空间,支持可扩展的变换器架构。相比VAE,RAE解决了过时骨干网络、信息压缩不足及表征能力弱等问题。实验显示,采用RAE的DiT模型在ImageNet上表现强劲,256×256分辨率下FID仅1.51,且收敛速度比基于VAE的方法快16倍。此外,宽DiT设计、噪声调度和噪声解码器等简单调整显著提升了扩散模型性能。研究论文已公开。
小阳哥
10-14 17:20:36
RAE
VAE
扩散模型
分享至
打开微信扫一扫
内容投诉
生成图片
推理性能提升10倍!蚂蚁集团开源业内首个高性能扩散语言模型推理框架dInfer
10月13日,蚂蚁集团开源了业界首个高性能扩散语言模型推理框架dInfer。在基准测试中,dInfer将扩散语言模型的推理速度提升10.7倍,超越英伟达Fast-dLLM框架;在代码生成任务HumanEval上,单批次推理速度达1011Tokens/秒,首次显著超越自回归模型。扩散语言模型通过“去噪”生成文本,具备高度并行、全局视野等优势,但推理效率长期受限于计算成本高等问题。dInfer通过四大核心模块针对性解决这些瓶颈,支持多种模型优化与评测。在配备8块NVIDIA H800 GPU的节点上,其速度是vLLM运行AR模型的2.5倍。蚂蚁集团表示,dInfer推动扩散语言模型迈向实践高效,邀请全球开发者共同探索AI潜能。
虚拟微光
10-13 18:00:58
dInfer
扩散语言模型
推理性能
分享至
打开微信扫一扫
内容投诉
生成图片
冲破 AGI 迷雾,蚂蚁看到了一个新路标
2025年9月,蚂蚁集团在上海外滩大会发布基于扩散理论的新范式模型LLaDA-MoE,总参数量7B,激活参数1.4B,验证了工业级大规模训练的可行性。该模型由蓝振忠和李崇轩团队联合开发,克服了自回归模型的单向建模缺陷,具备并行解码、双向建模及错误修正能力。蚂蚁通过开源基础模型版和指令微调版,推动扩散语言模型(dLLM)领域的社区协作,并计划联合学界探索AGI新突破。这一成果为语言模型研究开辟新路径,标志着国内团队在dLLM规模化扩展上迈出重要一步。
虚拟织梦者
09-29 11:08:37
AGI
扩散模型
自回归范式
分享至
打开微信扫一扫
内容投诉
生成图片
OpenAI宋飏被Meta挖跑了!扩散模型崛起关键人物,加入MSL再会师清华校友赵晟佳
2025年9月,Meta成功从OpenAI挖走华人研究员宋飏(Yang Song),他加入Meta MSL团队并向清华校友赵晟佳汇报。宋飏是扩散模型崛起的关键人物之一,曾在OpenAI担任战略探索团队负责人,并在生成模型领域取得突破性成果,如一致性模型的开发与优化。他的研究显著提升了图像生成速度和质量,成为近年AI领域的明星成果。宋飏拥有16岁裸分考入清华的天才背景,后于斯坦福大学攻读博士并深耕生成模型技术。他曾参与NeurIPS 2019等重要研究,为扩散模型的发展奠定基础。此次跳槽引发业内震惊,多位OpenAI员工表示意外。Meta持续吸纳顶尖人才,强化其AI研发实力。
DreamCoder
09-25 22:11:00
Meta
宋飏
扩散模型
分享至
打开微信扫一扫
内容投诉
生成图片
蚂蚁与中国人民大学发布首个原生MoE扩散语言模型
2025年9月12日,在2025Inclusion·外滩大会上,蚂蚁集团与中国人民大学联合发布业界首个原生MoE架构的扩散语言模型“LLaDA-MoE”。该模型在约20T数据上完成从零训练,验证了工业级大规模训练的扩展性与稳定性。模型将在近期完全开源,旨在推动全球AI社区在扩散语言模型(dLLM)领域的技术发展。这一成果标志着AI模型架构及训练方法的重要突破。(记者 黄心怡)
E-Poet
09-12 11:12:20
中国人民大学
扩散语言模型
蚂蚁集团
分享至
打开微信扫一扫
内容投诉
生成图片
2025外滩大会:蚂蚁、人大发布首个原生MoE扩散语言模型,将于近期开源
9月11日,2025外滩大会上,蚂蚁集团与中国人民大学联合发布业界首个原生MoE架构扩散语言模型LLaDA-MoE。该模型在约20T数据上完成训练,性能超越此前稠密扩散语言模型LLaDA1.0/1.5和Dream-7B,接近自回归模型Qwen2.5-3B-Instruct,并具备数倍推理速度优势。模型通过非自回归掩码扩散机制,挑战“语言模型必须自回归”的主流认知,在代码、数学等任务中表现优异。蚂蚁集团表示,模型及自研推理框架将于近期完全开源,推动全球AI社区技术发展。此外,蚂蚁将持续投入AGI领域,探索基于dLLM的未来突破路径。
数据炼金师
09-12 10:08:55
LLaDA-MoE
开源
扩散语言模型
分享至
打开微信扫一扫
内容投诉
生成图片
DiT突遭怒喷,谢赛宁淡定回应
2025年8月,扩散模型领域核心DiT遭网友质疑,称其数学、形式均错误,甚至怀疑其无Transformer。作者谢赛宁迅速回应,批评标题党行为并强调科学精神,指出评价需基于假设与实验。DiT融合Transformer与扩散模型,性能超越U-Net经典模型,广泛应用于图像视频生成。质疑者依据论文《TREAD》提出六点反驳,包括架构隐含特性及训练效率问题。谢赛宁否认Tread与“DiT是错的”有关,称其为正则化提升的结果,并推荐升级版Lightning DiT。他还总结团队改进方向,如内部表征学习方法REPA及相关技术优化,同时指出sd-vae是当前主要瓶颈。
跨界思维
08-20 17:19:58
DiT
扩散模型
谢赛宁
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序