近期,中国科学院上海光学精密机械研究所量子光学重点实验室提出一种适用于傅里叶变换关联成像系统的深度学习网络模型,该方法可实现关联成像动态解码,样品只需单次曝光即可获得高质量图像。相关论文发表在Optics Express 28, 17556-17569 (2020)。
近年来,基于深度学习的关联成像技术在光学成像领域引起了广泛关注,但是确定性照明和多次测量仍然是获得高质量重构图像的必要条件。然而,在X射线显微、原子显微等实际成像过程中,辐照样品的照明散斑场往往是动态变化的。
研究团队充分利用傅里叶变换关联成像系统的特点,提出了一种动态解码神经网络模型(Y-Net),只要训练过程和成像过程的散斑场统计特性一致,即可高质量重建样品图像,且样品只需单次曝光。由于网络具有动态解码特性,训练散斑场的空间分布可以完全不同于实验散斑场,因此可以采用模拟数据训练网络,从而解决了常规深度学习成像方法中的数据来源问题。此外,该方法基于端对端的方式实现样品图像重构,从而避免了傅里叶成像中的相位恢复问题。该方法对于实现高分辨X射线成像显微应用具有重要意义,将显著提升图像质量和成像速度,并有效减少辐射损伤。
相关研究得到国家自然科学基金重大科研仪器项目、国家重点研发计划项目的支持。(中科院量子光学重点实验室供稿)
原文链接
https://www.osapublishing.org/oe/abstract.cfm?uri=oe-28-12-17556
图1 基于深度学习的傅里叶变换关联成像原理(a)成像光路(b)网络数据流
图2 动态解码网络模型(Y-Net)及实验结果