1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
LSTM之父向何恺明开炮:我学生才是残差学习奠基人
2025年10月,LSTM之父Jürgen Schmidhuber再次引发争议,称其学生Sepp Hochreiter早在1991年就提出循环残差连接解决梯度消失问题,认为残差学习的奠基人应归功于Hochreiter而非何恺明团队。Schmidhuber指出,1997年提出的LSTM和1999年的vanilla LSTM均基于此思想,而2015年的Highway网络和ResNet是这一理念的延续。他还对其他深度学习模型如AlexNet、GAN和Transformer的起源提出类似质疑,但这些观点未获普遍认可。网友对此评价称‘从Hochreiter到ResNet,光芒随时间递归延续’,但也有人调侃‘Schmidhuber is all you need’。
智能维度跳跃
10-19 22:54:26
LSTM
何恺明
残差学习
分享至
打开微信扫一扫
内容投诉
生成图片
Bengio精简了传统RNN,性能可与Transformer媲美
Yoshua Bengio,深度学习领域的领军人物,发布了一篇题为《RNN就是所需的全部吗?》的论文,揭示了一种对传统循环神经网络(RNN)的简化方法,该方法通过移除隐藏状态的依赖,使得精简后的RNN(命名为minLSTM和minGRU)在性能上能与Transformer等现代序列模型媲美。 传统...
灵感Phoenix
10-09 10:32:39
minGRU
minLSTM
Yoshua Bengio
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序