清华团队最新研究成果登上Nature杂志,揭示了物理神经网络的全前向模式训练方法,彻底改变了传统依赖反向传播的训练流程。这一创新方法在物理光学系统中直接执行训练过程,大幅减少了对数学模型的依赖,节省了时间和能耗。
传统方法需先对物理系统进行详尽建模,再在计算机上模拟模型进行训练。而全前向模式(FFM)跳过了建模阶段,直接利用实验数据进行学习和优化。这种方法不再需要从后向前检查每一层(反向传播),而是直接从前向后更新网络参数,简化了训练流程,如同拼图游戏,无需回溯,只需根据规则填充缺失部分。
FFM的优势在于减少了对精确数学模型的依赖,避免了模型不准确带来的问题,同时节省了时间与能耗。这种方法允许光学系统直接从实验数据中学习,无需繁琐的反向传播过程,从而提高了训练效率和性能。
该研究由清华大学的薛智威、周天贶共同执笔,方璐教授及戴琼海院士担任通讯作者,参与研究的还包括电子系徐智昊和之江实验室虞绍良。论文阐述了FFM原理,即通过光学系统映射为参数化的现场神经网络,利用测量输出光场计算梯度,再运用梯度下降算法更新参数。
实验结果显示,FFM在自由空间光学神经网络(ONN)上实现了有效的自训练过程,与理想模型相比,准确率相当。使用FFM学习的ONN在单层和多层结构中均表现出色,特别是在复杂的散射环境中,FFM展现了高质量的成像能力,接近物理极限的分辨率。此外,FFM还能并行成像视线之外的物体,实现非视距场景下的动态目标快速成像。
FFM方法不仅适用于自由空间光学系统,还能扩展到集成光子系统的自我设计,通过编程矩阵值,实现对非厄米特系统的自动搜索异常点,无需物理模型即可实现对特异点的遍历。
综上所述,全前向模式的训练方法为物理神经网络提供了一种高效、并行的训练方式,显著提高了训练效率和性能,有望在多个领域推动人工智能技术的发展。
.png)

-
2025-07-21 16:21:09
-
2025-07-21 16:20:01
-
2025-07-21 16:18:51