1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
何恺明团队新作GeoPT,全新预训练范式让模型自学真实物理规律
何恺明团队新作GeoPT:让模型自学物理规律 量子位 | 公众号 QbitAI 物理仿真面临两大难题:标注数据昂贵、静态几何预训练局限。何恺明团队提出全新方法GeoPT,通过“合成动力学”将静态几何提升到动态空间,让模型在无标签数据中学习物理直觉,最高可节省60%的仿真数据需求。 核心思路 物理...
神经网络领航员
02-27 16:55:00
GeoPT
何恺明团队
物理仿真
分享至
打开微信扫一扫
内容投诉
生成图片
邓明扬一作论文改写生成范式!何恺明也署名了
正文:2026年2月,何恺明团队提出全新生成模型范式——漂移模型(Drifting Models),一作是人大附中校友、IMO与IOI双料金牌得主邓明扬。漂移模型将生成分布的演化从推理阶段转移到训练阶段,实现单步生成(One-step Generation)。其核心创新为引入“漂移场”机制,在训练中直接对齐先验分布与真实数据分布,消除了GANs的对抗训练不稳定性,并摆脱了扩散模型对多步求解的依赖。在ImageNet 256×256基准测试中,该模型以1-NFE取得1.54 FID的成绩,超越许多传统多步生成模型。此外,模型在具身智能控制任务中也表现出色,单步推理即可匹敌需100步的传统方法。
幻彩逻辑RainbowLogic
02-06 02:22:57
何恺明
漂移模型
邓明扬
分享至
打开微信扫一扫
内容投诉
生成图片
何恺明带大二本科生颠覆扩散图像生成:扔掉多步采样和潜空间,一步像素直出
正文:2026年1月,何恺明团队联合MIT本科生提出全新图像生成方法Pixel Mean Flow(pMF),颠覆传统扩散模型。该方法抛弃多步采样和潜空间编码,直接在像素空间一步生成高质量图像,在ImageNet 256×256分辨率上达到2.22 FID,512×512分辨率上为2.48 FID,创下单步无潜空间模型最佳成绩。pMF核心设计通过网络直接输出像素级去噪图像,并以速度场计算损失,基于流形假设简化复杂任务。实验表明,其计算效率远超StyleGAN-XL等方法,且避免了VAE解码器的额外开销。团队希望推动端到端生成建模研究。
LunarCoder
02-02 16:48:05
Pixel Mean Flow
何恺明
扩散模型
分享至
打开微信扫一扫
内容投诉
生成图片
何恺明组三位本科生领衔!持续聚焦Flow模型,突破归一化流生成效率瓶颈
正文:2025年12月,何恺明团队发布新论文,提出名为双向归一化流(BiFlow)的框架,突破归一化流生成模型效率瓶颈。该方法通过解耦前向与逆向过程,使逆向生成无需精确匹配前向过程,大幅提升速度和灵活性。实验显示,BiFlow在ImageNet 256×256数据集上取得2.39的FID分数,推理速度较基线提升两个数量级(TPU上快697倍)。此外,BiFlow支持图像修复和编辑任务。论文由三位本科生领衔,包括清华姚班陆伊炀、MIT Qiao Sun及刚入学MIT的王衔邦,均为何恺明指导。
智能维度跳跃
12-15 15:44:36
BiFlow
何恺明
归一化流
分享至
打开微信扫一扫
内容投诉
生成图片
后生可畏!何恺明团队新成果发布,共一清华姚班大二在读
2025年12月,何恺明团队发布新成果Improved MeanFlow (iMF),解决原始MeanFlow在训练稳定性、指导灵活性和架构效率上的三大问题。通过重构预测函数为标准回归问题,引入无分类器指导(CFG)和上下文内条件作用,模型性能大幅提升。在ImageNet 256×256基准测试中,iMF-XL/2模型单步生成FID达1.72,较原始版本提升50%,媲美多步扩散模型。论文一作为CMU博士生耿正阳,共一为清华姚班大二学生Yiyang Lu,后者现于MIT跟随何恺明研究计算机视觉。其他合作者包括Adobe研究员Zongze Wu、Eli Shechtman及CMU机器学习系主任Zico Kolter。该研究部分完成于MIT,何恺明教授署名尾作。
WisdomTrail
12-04 09:08:44
Improved MeanFlow
何恺明
清华姚班
分享至
打开微信扫一扫
内容投诉
生成图片
NeurIPS 2025放榜:阿里Qwen门控注意力获最佳论文,何恺明Faster R-CNN获时间检验奖
2025年11月26日,NeurIPS 2025揭晓最佳论文奖和时间检验奖。阿里Qwen团队的门控注意力研究获最佳论文奖,聚焦大语言模型性能提升;何恺明团队2015年提出的Faster R-CNN获时间检验奖,突破目标检测速度瓶颈。本届共4篇最佳论文,3篇为华人一作,涵盖大模型多样性、强化学习深度扩展及扩散模型泛化机制等前沿领域。此外,Best Paper Runner-up有3篇,涉及在线学习理论与神经缩放定律等方向。Faster R-CNN通过区域提议网络(RPN)实现高效检测,在多项竞赛中表现优异,其创新设计影响深远。
未来笔触
11-27 11:28:03
NeurIPS 2025
何恺明Faster R-CNN
阿里Qwen门控注意力
分享至
打开微信扫一扫
内容投诉
生成图片
何恺明团队新作:扩散模型可能被用错了
正文:2025年11月,何恺明团队发布新论文,提出扩散模型可能被用错的观点。研究指出,当前主流扩散模型在训练时多预测噪声或速度场,而非直接生成干净图像,这与模型本质相悖。基于流形假设,团队认为神经网络更适合学习将噪声投影回低维流形的干净数据,而非拟合高维噪声。为此,他们提出极简架构JiT(Just image Transformers),完全从像素出发,直接预测图像块,无需VAE、Tokenizer等复杂组件。实验表明,JiT在高维空间下表现稳健,在ImageNet 256×256和512×512生成任务中分别取得1.82和1.78的SOTA级FID分数。论文一作为黎天鸿,清华姚班本科毕业,现为何恺明组博士后。
数字墨迹
11-20 11:15:51
JiT
何恺明
扩散模型
分享至
打开微信扫一扫
内容投诉
生成图片
何恺明MIT两名新弟子曝光:首次有女生入组,另一位是FNO发明者,均为华人
何恺明MIT两名新弟子曝光:首次有女生入组,另一位是FNO发明者,均为华人 AI大牛何恺明的团队近日新增两名成员——博士生胡珂雅和博士后李宗宜,均为华人学者。至此,何恺明任教MIT以来招募的6名学生中,5名为中国面孔。 胡珂雅:上交学霸直博MIT 胡珂雅本科毕业于上海交通大学ACM班,高中就读于福建...
心智奇点
11-06 20:12:52
AI for Science
何恺明
华人学者
分享至
打开微信扫一扫
内容投诉
生成图片
LSTM之父向何恺明开炮:我学生才是残差学习奠基人
2025年10月,LSTM之父Jürgen Schmidhuber再次引发争议,称其学生Sepp Hochreiter早在1991年就提出循环残差连接解决梯度消失问题,认为残差学习的奠基人应归功于Hochreiter而非何恺明团队。Schmidhuber指出,1997年提出的LSTM和1999年的vanilla LSTM均基于此思想,而2015年的Highway网络和ResNet是这一理念的延续。他还对其他深度学习模型如AlexNet、GAN和Transformer的起源提出类似质疑,但这些观点未获普遍认可。网友对此评价称‘从Hochreiter到ResNet,光芒随时间递归延续’,但也有人调侃‘Schmidhuber is all you need’。
智能维度跳跃
10-19 22:54:26
LSTM
何恺明
残差学习
分享至
打开微信扫一扫
内容投诉
生成图片
MIT终身教授何恺明,入职谷歌了
近日,MIT终身教授何恺明正式加盟谷歌DeepMind,担任杰出科学家一职。此前,他于2023年获得MIT终身教职,仅隔一年便选择以兼职形式加入谷歌。何恺明是计算机视觉领域的顶尖学者,曾提出ResNet等经典模型,总引用量超71万次。他与谷歌DeepMind早有合作,包括今年2月发表的《Fractal Generative Models》论文,以及去年合作的Fluid项目。此次加入DeepMind基础研究组,标志着其学术与产业界双重身份的延续。
GhostPilot
06-26 10:56:19
DeepMind
MIT
何恺明
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序