-
仿真相关参数如下:入射光波长1 064 nm,通光口径8 mm,离焦光栅边长16 mm,离焦光栅焦距7.5 mm,离焦光栅的扭曲光栅狭缝相对于规则线光栅狭缝位移33.75 mm,短焦距透镜焦距200 mm,CCD像素大小12 μm×12 μm,离焦光栅相位台阶深度分别为0.639
${\text{π}} $ 与2${\text{π}} $ ,CCD上开窗大小100 pixel×100 pixel,CNN训练时batchsize设置为100,epoch设置为200,选用均方误差函数为CNN损失函数,Adam函数为梯度下降函数,工作站配置为Intel Core i7 9700 K 3.6 GHz,Kingston 64 GB,NVIDIA GeForce RTX2080Ti。仿真中,训练过程和测试过程均在GPU上完成。算法大概需要10 min去完成CNN训练,训练好后的CNN进行一次波前复原大概需要0.6 ms。当工作站配置更高时,算法耗时更少。 -
像差倾斜项大小可根据焦面质心计算获得,因此文中不考虑第2与第3阶Zernike模式。根据第4~23阶Zernike系数随机生成10 000组入射波前,入射波前经离焦光栅调制后经CCD测量获得短焦距透镜焦面远场光强分布,从短焦距透镜焦面远场光强分布中提取出正负离焦以及焦面远场光强分布作为样本,各阶Zernike系数的范围在±0.5 μm以内。训练集与测试集的样本独立同分布,从这10 000组样本中随机抽取9 000组样本以及相应的Zernike系数分别作为训练集中的样本和标签,剩余的1 000组样本以及相应的Zernike系数分别作为测试集中的样本和标签。图5给出了训练集中一组样本以及对应的标签和此时的入射波前。由图5(c)知,样本由3个通道组成,3个通道分别为从短焦距透镜焦面远场光强分布中提取出的正离焦远场光强分布、焦面远场光强分布以及负离焦远场光强分布。
-
为验证仿真结果,选取残差波前的方均根(Root Mean Square,RMS)作为评价指标,它的表达式为:
$$ RMS=\sqrt{\frac{1}{\pi }{\int }_{0}^{2{\text{π}} }{\int }_{0}^{1}{\left[w-\widehat{w}\right]}^{2}r{\rm{d}}r{\rm{d}}\theta } $$ (1) 式中:w表示残差波前;
$ \widehat{w} $ 表通光口径内残差波前平均值。RMS的单位是波长$ {\rm{\lambda }} $ 。残差波前RMS越小,算法预测的波前面形越接近入射波前面形。引入均方根误差(Root Mean Square Error,RMSE)衡量CNN预测的Zernike系数拟合的好坏,它的表达式为:
$$ RMSE=\sqrt{\frac{1}{n}\sum \limits_{i=1}^{n}{\left({y}_{{\rm{predict}}}^{\left(i\right)}-{y}_{{\rm{label}}}^{\left(i\right)}\right)}^{2}} $$ (2) 式中:n为Zernike阶数;上标(i)为第i阶Zernike系数;ypredict为CNN预测的各阶Zernike系数;ylabel为测试集中样本对应的标签,即真实值。文中,CNN输出第4~23阶Zernike系数,n=20。RMSE的单位是微米。RMSE越小,算法预测的Zernike系数与标签真实值拟合的越好,复原精度越高。
-
图6为1 000组测试样本对应的入射波前进行波前复原前后的入射波前RMS与残差波前RMS变化情况。由图6可知,1 000组测试样本对应的入射波前的平均RMS为1.289
$ {\rm{\lambda }} $ ,波前复原后残差波前平均RMS降到0.087$ {\rm{\lambda }} $ ,残差波前RMS为入射波前RMS的6.7%。从测试集中任意抽取2个样本,图7中(a1)~(a4)分别为第30组样本对应的Zernike系数拟合情况、入射波前、CNN预测波前和残差波前,(b1)~(b4)分别为第799组样本对应的Zernike系数拟合情况、入射波前、CNN预测波前和残差波前。
图 7 测试集中第30组和第799组样本对应的Zernike系数拟合情况、入射波前、CNN预测波前和残差波前
Figure 7. Fitting results of Zernike coefficients, incident wavefront, predicted wavefront and residual wavefront of 30th sample and 799th samples in test set
由图7知,第30组样本初始波前RMS=1.043
$ {\rm{\lambda }} $ ,CNN预测波前RMS=1.036$ {\rm{\lambda }} $ ,残差波前RMS=0.05$ {\rm{\lambda }} $ ,CNN预测的各阶系数与真实值间的RMSE=0.0346 μm,各阶Zernike模式系数均实现了良好拟合。第799组样本对应的入射波前RMS=1.089$ {\rm{\lambda }} $ ,CNN预测波前RMS=1.072$ {\rm{\lambda }} $ ,残差波前RMS=0.056$ {\rm{\lambda }} $ ,CNN预测的各阶系数与真实值间的RMSE等于0.0251 μm,各阶Zernike模式系数均实现了良好拟合。由图6和图7知,CNN预测波前与入射波前面形近似一致,残差波前RMS远小于入射波前RMS,算法预测的Zernike模式系数与真实值拟合的很好,算法实现了高精度波前复原。
-
由2.1节知,训练集和测试集的入射波前均根据第4~23阶Zernike多项式随机生成,各阶Zernike模式系数范围在±0.5 μm以内,此时训练好后的CNN可根据单帧短焦距透镜焦面远场光强分布经一次计算精确复原波前。此节为了验证高阶像差的波前复原精度,额外分别生成仅包含第19阶、第20阶、第21阶、第22阶、第23阶Zernike多项式的像差各100组,各阶Zernike模式系数范围在±0.5 μm以内。按照2.1节的描述,根据这500组入射波前生成一个新的测试集。用2.2节中训练好的CNN对这500组入射波前进行拟合,图8给出了这500组入射波前的拟合情况。由图8知,算法预测的第19~23阶Zernike系数与真实值间的RMSE分别为0.0391、0.0397、0.0354、0.0322、0.0308 μm,预测值与真实值间的差距很小,CNN实现了良好拟合。算法进行一次波前复原所需时间仍约为0.6 ms。
从这500组样本里随机抽取5组样本,它们分别仅由第19阶、第20阶、第21阶、第22阶、第23阶Zernike多项式生成。图9给出了这5组样本对应的入射波前、CNN预测波前以及残差波前的面形以及RMS。
图 9 第19~23阶Zernike多项式对应的入射波前、CNN预测波前以及残差波前
Figure 9. Incident wavefront, wavefront predicted by CNN and residual wavefront corresponding to 19th-23rd Zernike modes
由图9可知,由各阶Zernike多项式生成入射波前与CNN相应的预测波前面形几乎一致,第19~23阶Zernike多项式对应的残差波前RMS分别为0.087
$ {\rm{\lambda }} $ 、0.088$ {\rm{\lambda }} $ 、0.079$ {\rm{\lambda }} $ 、0.072$ {\rm{\lambda }} $ 、0.068$ {\rm{\lambda }} $ ,残差波前很小,训练好后的CNN可对单阶高阶像差进行高精度波前复原。
A single-frame deep learning phase retrieval algorithm based on defocus grating
-
摘要: 针对目前相位差法收敛速度慢以及需要CCD在焦面以及离焦面多次测量的问题,提出了基于离焦光栅的单帧深度学习相位反演算法。该算法用离焦光栅对入射波前进行调制,可同时在透镜焦平面上获得正负离焦以及焦面远场光强分布;此外算法引入卷积神经网络替代原有的多次扰动寻优过程,波前复原算法耗时大大降低。仿真结果表明:算法可根据单帧透镜焦面远场光强分布实现高精度快速波前复原,残差波前的均方根为入射波前均方根的6.7%,算法进行一次波前复原所需时间可小于0.6 ms。Abstract: Aiming at drawbacks of slow convergence rate and multiple measuring on focal or defocus plane by CCD in phase diversity algorithm, a single-frame deep learning phase retrieval algorithm based on defocus grating was proposed. Algorithm used a defocus grating to modulate incident wavefront, far-field intensity distribution of focal and positive/negative defocus plane can be acquired on focal plane of lens at the same time. In addition, convergence rate was improved when algorithm applied CNN to replace multiple perturbation optimization process. Numerical simulations indicate that the proposed method can achieve precise high-speed wavefront reconstruction with a single far-field intensity distribution, root mean square (RMS) of residual wavefront is 6.7% of that of incident wavefront, computing time for algorithm to perform wavefront reconstruction can be less than 0.6 ms.
-
-
[1] Fienup J R, Marron J C, Schulz T J, et al. Hubble Space Telescope characterized by using phase-retrieval algorithms [J]. Applied Optics, 1993, 32(10): 1747. doi: 10.1364/AO.32.001747 [2] Nicolas Védrenne, Mugnier Laurent M, Vincent Michau, et al. Laser beam complex amplitude measurement by phase diversity [J]. Optics Express, 2014, 22(4): 4575-4589. doi: 10.1364/OE.22.004575 [3] Gao C, Zhang S, Fu S, et al. Adaptive optics wavefront correction techniques of vortex beams [J]. Infrared and Laser Engineering, 2017, 46(2): 0201001. doi: 10.3788/IRLA20174602.0001 [4] Cheng H, Xiong B, Wang J, et al. Phase retrieval technology based on chromatic dispersion and transport of intensity equation in lens model [J]. Infrared and Laser Engineering, 2019, 48(6): 0603018. doi: 10.3788/IRLA201948.0603018 [5] Misell D L. An examination of an iterative method for the solution of the phase problem in optics and electron optics: I. Test calculations [J]. Journal of Physics D Applied Physics, 1973, 6(18): 2200-2216. doi: 10.1088/0022-3727/6/18/305 [6] Fienup J R, Wackerman C. Phase-retrieval stagnation problems and solutions [J]. Journal of Optical Society of America A, 1986, 3(11): 1897-1907. doi: 10.1364/JOSAA.3.001897 [7] Gonsalves R A. Phase retrieval and diversity in adaptive optics [J]. Optical Engineering, 1982, 21(5): 829-832. [8] Greenbaum A Z, Sivarakrishnan A. In-focus wavefront sensing using non-redundant mask-introduced pupil diversity [J]. Optics Express, 2016, 24(14): 15506-15521. doi: 10.1364/OE.24.015506 [9] Ju G, Qi X, Ma H, et al. Feature-based phase retrieval wavefront sensing approach using machine learning [J]. Optics Express, 2018, 26(24): 31767-31783. doi: 10.1364/OE.26.031767 [10] Paine S W, Fienup J R. Machine learning for improved image-based wavefront sensing [J]. Optics Letters, 2018, 43(6): 1235-1238. doi: 10.1364/OL.43.001235 [11] Nishizaki Y, Valdivia M, Horisaki R, et al. Deep learning wavefront sensing [J]. Optics Express, 2019, 27(1): 240-251. doi: 10.1364/OE.27.000240 [12] Qinghua T, Chenda L, Bo L, et al. DNN-based aberration correction in a wavefront sensorless adaptive optics system [J]. Optics Express, 2019, 27(8): 10765-10776. doi: 10.1364/OE.27.010765 [13] Guo H, Xu Y, Li Q, et al. Improved machine learning approach for wavefront sensing [J]. Sensors, 2019, 19(16): 3533-3545. doi: 10.3390/s19163533 [14] Blanchard Paul M, Greenaway Alan H. Simultaneous multiplane imaging with a distorted diffraction grating [J]. Applied Optics, 1999, 38(32): 6692-6699. doi: 10.1364/AO.38.006692