-
基于建立的无波前探测自适应光学系统的仿真模型,首先分析随着变形镜单元数的增加,常规SPGD算法收敛性和陷入局部极值概率的情况。分别采用4种单元变形镜去校正湍流强度D/r0=5情况下的波前像差。系统迭代1000次,4种单元变形镜各自收敛情况如下图3所示。图中“37”、“61”、“97”和“127”分别代表4种不同单元的变形镜。
从图3中可以明显看出随着变形镜单元数的增加,系统收敛速度逐渐变慢。以SR达到0.8时的迭代次数作为校正速度的评判标准。37单元变形镜需要107次,61单元变形镜需要146次,97单元变形镜需要190次,127单元变形镜需要220次。
为了更加直观对比4种变形镜陷入局部极值的概率,统计了系统陷入局部极值的帧数。37单元变形镜有47帧,61单元有72帧,97单元有98帧,127单元有136帧。从数据中可以看出,随着变形镜单元数的增加,系统陷入局部极值的帧数逐渐增多,意味着系统陷入局部极值的概率逐渐增大。
下面考察了127单元变形镜分别校正D/r0=5、10、15、20这4种湍流强度下的波前像差的情况。收敛曲线如图4所示。
从图中可以看出随着湍流强度的增大,系统的收敛速度逐渐变慢。算法迭代1000次后,D/r0=15和20的情况下没有完全收敛。另外,统计了4种湍流强度下陷入局部极值的帧数,D/r0=5~20分别为136、158、200、240帧。由数据可以看出随着湍流强度的增大,系统陷入局部极值的概率也逐渐增大。
-
基于Adam优化的SPGD算法理论上具有增益系数自适应变化的特点,随机选取D/r0=5时的50帧不同相屏作为校正对象,分析不同单元数变形镜对应的自适应光学系统增益系数变化情况,如图5所示,其中“SPGD”代表基于常规SPGD算法,其它代表基于优化算法,每条曲线为50帧相屏的平均结果。算法迭代了1000次,但300~1000次迭代增益系数基本保持不变,为图像更加清晰,只给出了前300次迭代情况。
从图5中可以看出,4种不同单元数的变形镜,优化后的增益系数在算法迭代初期都比固定增益值大得多,大的增益意味着朝优化方向的步长加大,收敛速度加快,并且收敛速度越快的增益初始值越大。经过一定的迭代次数后,优化后增益系数逐渐接近固定增益值的大小,且随着变形镜单元数的增加,接近固定增益值的速度越快。
-
基于两种算法,首先对4种变形镜校正同一湍流强度像差的情况进行了对比分析。图6给出了基于优化后的SPGD算法在4种不同变形镜的情况下系统收敛情况。其中“37”、“61”、“97”和“127”分别代表4种单元变形镜。
对比图3可以看出,优化前后算法在4种变形镜的情况下迭代1000次都已经收敛。统计了优化后算法的SR达到0.8时所需迭代次数,在4种变形镜情况下分别需要91、122、150、172次。与常规SPGD算法的数据对比,优化后的算法收敛速度更快。
为了分析随着变形镜单元数的增加,优化前后算法的收敛趋势,将两种算法收敛时所需要的迭代次数进行对比。结果如图7所示,其中所示每条连接线的4个标记位置,对应的横坐标表示4种变形镜的单元数,纵坐标表示每种变形镜校正SR达到0.8时需要的迭代次数。“Adam”表示优化的SPGD算法,“SPGD”表示常规的SPGD算法。
从图7中可以看出,随着变形镜单元数的增多,优化前与优化后的算法收敛所需的迭代次数差距逐渐增大。表明了单元数越多,优化后算法的优势越明显。
图8给出了优化算法在127单元变形镜情况下对4种湍流强度下像差校正的对比情况。
与常规SPGD算法趋势相同,随着湍流强度的增大,系统收敛速度逐渐变慢。但算法迭代1000次后,在D/r0=15和20情况下优化算法已经收敛,表明优化后算法收敛速度更快。
图9给出了使用127单元变形镜校正4种湍流强度像差时,优化前与优化后的算法收敛时所需迭代次数的对比情况。其中横坐标表示湍流强度,纵坐标表示算法收敛时的迭代次数。
Figure 9. Comparison of iteration number of two algorithms at convergence based on 127 elements DM under different D/r0
从图9中可以看出,随着湍流强度的增大,优化前后算法收敛时所需的迭代次数差距变大。表明了湍流强度越大,优化后算法优势越明显。
-
为了对比优化前后算法陷入局部极值的情况,统计了基于4种变形镜在同一湍流强度和基于127单元变形镜在不同湍流强度校正像差时,两种算法陷入局部极值的帧数,见表1和表2。
DM/elements SPGD Adam 37 48 30 61 72 50 97 98 67 127 136 88 Table 1. Number of frames caught in local extremum in different DM
D/r0 SPGD Adam 5 136 88 10 158 110 15 200 135 20 240 154 Table 2. Number of frames caught in local extremum under different D/r0
通过表1中两种算法的数据对比,优化后37单元变形镜陷入局部极值的概率降低了30%,61单元变形镜收敛陷入局部极值的概率降低了31.2%,97单元变形镜陷入局部极值概率降低了32%,127单元变形镜陷入局部极值的概率降低了35.3%。
根据表2中的数据对比,优化算法在4种湍流强度情况下陷入局部极值的概率分别降低了30%、32%、33%和36%。
由此可以看出优化后的算法陷入局部极值的概率有所降低。同时随着变形镜单元数的增加,湍流强度越大这种优势也越来越明显。
SPGD algorithm with adaptive gain
doi: 10.3788/IRLA20200274
- Received Date: 2020-07-10
- Rev Recd Date: 2020-08-29
- Accepted Date: 2020-05-21
- Available Online: 2020-11-03
- Publish Date: 2020-11-03
-
Key words:
- adaptive optics /
- SPGD /
- wavefront correction /
- DM /
- Adam
Abstract: SPGD is a control algorithm widely used in wavefront sensorless adaptive optics (AO) systems. The gain is commonly set to a fixed value in the traditional SPGD algorithm. With the increase of the number of DM elements, which can easily lead to the slow convergence speed of the algorithm and the increase of the probability of falling into the local extreme value. Adam optimizer is an optimized stochastic gradient descent algorithm commonly used in deep learning. It has the advantage of achieving adaptive learning rate. The advantages of Adam optimizer adaptive gain and SPGD algorithm were combined to realize adaptive gain for AO system control. The simulation model of wavefront sensorless AO system was established with 32, 61, 97 and 127 elements DM as wavefront correction devices respectively, wavefront aberrations with different turbulence intensities as correction objects. The results show that the optimized algorithm converges faster than basic SPGD algorithm and the probability of falling into local extremum decreases. As the number of DM elements increases and the turbulence intensity increases, the advantages of the optimized algorithm are more obvious. The above research results provide a theoretical basis for the practical application of the SPGD algorithm based on Adam optimization.