通过Kriging代理模型不仅仅能估计出预测点的响应值,也能给出预测点的响应值方差。该方差表示了预测点响应值的不确定性,也体现了预测点附近区域的样本稀疏性,即方差较大的话,预测响应值具有较大的不确定性,该店附近区域预测不准确的可能性也较大。所以,在这个区域增加样本量会有效地提高模型的精确度。基于Kriging模型的特点,如今工程应用中有很多不同加点准则,对于最优化问题来说,最常见加点准则是最小化响应面准则和最大化期望提高准则。
1.最小化响应面准则
最小化响应面准则是针对最小化问题的最简单的加点策略,对于最大化问题来说是最大化响应面准则。最小化响应面加点是指将每次迭代的最优设计加入到Kriging模型样本集,继续进行下一次建模优化,直至满足给定收敛条件式。
式中 k——优化迭代数;
yk——当前迭代数的最优实际响应值;
k——当前迭代数的最优Kriging响应值;
ε1,ε2——自定义的收敛精度。
最小响应面准则仅考虑了预测点的响应值,缺少对样本稀疏区域的搜索,在迭代过程中不能够有效提高响应面的近似精度,对于单峰值的问题可以快速收敛到最优解,但对于多峰值的复杂问题,结果容易收敛于局部最优解。
2.最大化期望提高准则
最大化期望提高准则是加权考虑了预测点的响应值和预测方差的一种加点方法。期望提高的意思是计算在一个预测点的响应值目标提高的概率。对于某个预测点x来说,其真实响应值是未知的,但Kriging代理模型可以预测该点的均值y2(x)和均方差σ2(x)。假设当前最优设计的真实响应值为Ymin,则该模型的响应值目标的提高为I(x)=Ymin—y(x)(最小化问题),并且服从正态分布,其概率密度函数为
则响应值目标提高的期望值为
应用分部积分可以解得
式中,Φ和φ分别是正则化正态概率分布函数和概率密度函数。
上式为两项之和,从第一项来看,是要寻找预测值很小、预测又比较准确的点,第二项则是要寻找预测的不确定比较大的点,同时概率密度函数也限制了预测值不能远离当前的最优响应值。概率分布函数和概率密度函数的作用是惩罚不合适的点,当某个点预测值比当前最优解差且预测方差比较小,则该点的期望提高便被罚的很小,从而被筛去。综上所述,最大化期望提高准则便是要寻找预测值比当前最优解小或者预测不确定性较大的点。该准则对初始样本点的选择要求有所降低,也同时避免了搜寻目标函数值很大的区域,有效提高了迭代计算效率。为了控制期望提高的局部寻优和全局寻优,可以采用两项加权的形式来实现
Eω(x[I )]=σ(x)[ωuΦ(u)+(1—ω)(u)]φ(9-53)
式中,加权系数ω取值范围是[0,1],取值越大,则算法的局部搜索能力越强,取值越小,算法的全局搜索能力越强。图9-6某一维函数应用最大化期望加点准则的迭代优化过程。可以看出,该加点准则的加点策略是首先搜寻当前最优点附近,之后在整个空间内搜索,寻找更小解和预测不确定性大的区域。通过几次加点迭代便成功确定了全局最优解区域,体现了该加点准则具有很强的代理模型优化和空间搜索能力。
最大化期望加点准则的收敛条件一般为
E[I(x)]≤εE(9-54)
或者
式中 εE,εr——自定义的收敛精度;
Ymax——当前样本中的最大响应值;
Ymin——当前样本中的最小响应值。
式(9-55)左边是期望提高和响应值变化值比,所以右边只需给出相对收敛精度且与响应值量级无关,方便给予定义。
迭代优化的一个重要的环节是优化算法的选取,优化算法会作用在搜索基于加点准则情况下模型更新需要的新样本点,从而在迭代优化过程中同时提高Kriging代理模型的建模精度。在基于代理模型的优化过程中,优化算法的计算对象是Kriging代理模型,而不是复杂的真实模型。因而计算时间可以极大缩短,优化算法的效率要求也就大幅降低,即使采用智能优化算法,如遗传算法、粒子群优化算法等,优化耗时和运行真实模型的时间相比是可以忽略的,这大大扩展Kriging代理模型的优化适用性。
图9-6 最大化期望提高加点准则迭代过程
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。