1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

清华团队最新研究成果登上Nature杂志,揭示了物理神经网络的全前向模式训练方法,彻底改变了传统依赖反向传播的训练流程。这一创新方法在物理光学系统中直接执行训练过程,大幅减少了对数学模型的依赖,节省了时间和能耗。

传统方法需先对物理系统进行详尽建模,再在计算机上模拟模型进行训练。而全前向模式(FFM)跳过了建模阶段,直接利用实验数据进行学习和优化。这种方法不再需要从后向前检查每一层(反向传播),而是直接从前向后更新网络参数,简化了训练流程,如同拼图游戏,无需回溯,只需根据规则填充缺失部分。

FFM的优势在于减少了对精确数学模型的依赖,避免了模型不准确带来的问题,同时节省了时间与能耗。这种方法允许光学系统直接从实验数据中学习,无需繁琐的反向传播过程,从而提高了训练效率和性能。

该研究由清华大学的薛智威、周天贶共同执笔,方璐教授及戴琼海院士担任通讯作者,参与研究的还包括电子系徐智昊和之江实验室虞绍良。论文阐述了FFM原理,即通过光学系统映射为参数化的现场神经网络,利用测量输出光场计算梯度,再运用梯度下降算法更新参数。

实验结果显示,FFM在自由空间光学神经网络(ONN)上实现了有效的自训练过程,与理想模型相比,准确率相当。使用FFM学习的ONN在单层和多层结构中均表现出色,特别是在复杂的散射环境中,FFM展现了高质量的成像能力,接近物理极限的分辨率。此外,FFM还能并行成像视线之外的物体,实现非视距场景下的动态目标快速成像。

FFM方法不仅适用于自由空间光学系统,还能扩展到集成光子系统的自我设计,通过编程矩阵值,实现对非厄米特系统的自动搜索异常点,无需物理模型即可实现对特异点的遍历。

综上所述,全前向模式的训练方法为物理神经网络提供了一种高效、并行的训练方式,显著提高了训练效率和性能,有望在多个领域推动人工智能技术的发展。

原文链接
本文链接:https://kx.umi6.com/article/4808.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
AI女友正在变成马斯克的印钞机
2025-07-20 19:07:11
立讯机器人总部基地项目在常熟开工:总投资 50 亿元,年产值可达百亿
2025-07-19 15:54:36
鸿海开始导入英伟达Vera Rubin平台
2025-07-21 09:15:10
24小时热文
更多
扫一扫体验小程序