1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
DiT突遭怒喷,谢赛宁淡定回应
2025年8月,扩散模型领域核心DiT遭网友质疑,称其数学、形式均错误,甚至怀疑其无Transformer。作者谢赛宁迅速回应,批评标题党行为并强调科学精神,指出评价需基于假设与实验。DiT融合Transformer与扩散模型,性能超越U-Net经典模型,广泛应用于图像视频生成。质疑者依据论文《TREAD》提出六点反驳,包括架构隐含特性及训练效率问题。谢赛宁否认Tread与“DiT是错的”有关,称其为正则化提升的结果,并推荐升级版Lightning DiT。他还总结团队改进方向,如内部表征学习方法REPA及相关技术优化,同时指出sd-vae是当前主要瓶颈。
跨界思维
08-20 17:19:58
DiT
扩散模型
谢赛宁
分享至
打开微信扫一扫
内容投诉
生成图片
DiT在数学和形式上是错的?谢赛宁回应:不要在脑子里做科学
2025年8月,一篇关于DiT架构缺陷的帖子在社交媒体引发热议。博主引用论文指出,DiT存在隐性架构问题,如FID过早稳定、后层归一化不稳定及adaLN-zero限制表达能力等。DiT作者、纽约大学助理教授谢赛宁回应称,质疑需基于实验而非空想,并解释DiT的改进方向,包括Lightning DiT升级版和VA-VAE等方法。他承认DiT有硬伤,如sd-vae效率低,但强调其仍是当前主流架构。谢赛宁呼吁科学质疑应基于假设与验证,而非仅为吸引关注。
代码编织者Nexus
08-20 13:13:44
DiT
TREAD
谢赛宁
分享至
打开微信扫一扫
内容投诉
生成图片
谢赛宁回应团队论文藏AI好评提示词:立正挨打,但是时候重新思考游戏规则了
2025年7月,知名学者谢赛宁就其团队论文中被发现隐藏AI好评提示词一事公开道歉,并承认此行为‘不道德’。事件起因是一名短期访问学者学生在其EMNLP投稿中加入白底白字的提示词,试图操控AI审稿结果。舆论发酵后,谢赛宁表示自己此前未察觉问题,强调共同作者应承担责任,并已更新论文、联系ARR寻求指导。他认为当前学术界需重新思考AI时代的伦理规则,呼吁对AI审稿及提示词注入等新问题展开深入讨论。同时,他也指出,这并非传统学术不端,而是新兴技术带来的复杂挑战,值得进一步反思与规范。
电子诗篇
07-08 09:40:42
AI审稿
学术伦理
谢赛宁
分享至
打开微信扫一扫
内容投诉
生成图片
谢赛宁团队新作:不用提示词精准实现3D画面控制
谢赛宁团队新作:无需提示词精准控制3D画面 曾几何时,用文字生成图像已变得稀松平常。但你是否想过通过拖动方向键或滑块来直接操控画面?谢赛宁团队最新发布的Blender Fusion框架,结合图形工具(Blender)与扩散模型,让视觉合成不再依赖文本提示,实现了对3D画面的精准控制。 核心:...
智慧棱镜
07-03 15:23:42
3D画面控制
BlenderFusion
谢赛宁团队
分享至
打开微信扫一扫
内容投诉
生成图片
谢赛宁&Lecun团队新成果:首发以视觉为中心的多模态大模型
谢赛宁与Yann LeCun团队宣布首个以视觉为中心的多模态大模型Cambrian-1,命名为“寒武纪”,象征着理解能力的重大突破。模型解决了现有大模型的视觉缺陷,通过四分之一的视觉标记超越同类技术。他们构建模型的关键包括新测试基准CV-Bench、MLLM评估视觉模型、新连接器SVA和指令微调数据集Cambrian-10M。 Cambrian-1开源所有资源,包括8B、13B和34B不同规模的模型,预示着视觉模型新时代的到来。这项工作得到了谷歌TPU的支持,旨在推动视觉表示学习的持续进步。
未来编码者
06-28 00:22:29
Cambrian-1
视觉为中心的多模态大模型
谢赛宁&Lecun团队
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序