系统运行过程中,随机变量有多个,如激励存在多种因素的影响、系统参数的变化等。这些随机变量之间可能是独立的,也有可能是相互有牵连的,牵连程度的强弱有所不同,需要进行相关性分析。相关性分析的目的是为了更好地了解系统以及系统随机变量的关联性,更正确地把握问题的关键。
相关性分析通常采用的是回归分析的统计方法。
1.单变量线性回归
假设要估计在自变量x与一个因变量y之间的相关性。设在y与x之间真实相关是线性关系,这里观察值y是随机变量,而x是数学变量。那么在给定x的值之下,y的期望值假设是:E=β0+β1x,式中β0为一未知常数,是x取零时,y的值;β1为斜率,即x变化一个单位所引起的y的变化,也是一个待定的未知常数。假设y的每一个观察值可用下式表示y=β0+β1x+e,式中e是均值为0,方差为c2的随机误差。假设存在n对观察值(xi,yi),i=1,2,…,n,通常采用最小二乘法来估计上式中的yi。设:yi=β0+β1xi+εi(i=1,2,…,n),则εi=yi-β0-β1xi,这里假设ε是不相关的随机变量。随机变量偏差ε的平方和为(最小二乘法函数形式):L==。为了使L(偏差)极小,可求出和,并置它们为0,从而可以得到β0,β1的线性代数方程,即有:
转化为:nβ0=yi-β1xi,β1=xiyi-β0xi
于是:β0=-β1,β1=
最后得到:=xi,=yi
2.单变量线性回归的显著性检验
首先考虑β1的均方误差:
在xi处观测值yi与回归值yi之间的误差为均方误差,值为
MSE==
也称为回归的剩余方差,它是误差方差的无偏估计量。
构造检验统计量t0=服从自由度为n-2的t分布。
设定一个显著性水平α,当kengdiegt;tα/2,n-2时,x、y是显著相关。
Sxx是x的自相关函数。
Sxx=E=-
3.多变量线性回归
X、Y变量可以是多种形式的变量,如X、Y为非线性变量。
假设y={y1,y2,…,ym}T由m个变量构成的向量,每一个向量观察值可用下式表示
y=b0+b1x+e
式中,e={e1,e2,…,em}T是均值为0;
x={x1,x2,…,xn}T为n个影响观察值的控制变量;
b0={b1,b2,…,bm}T为待求的相关系数(常数项);
b1=[bij]为m'n阶的系数矩阵。
为了计算的方便将上述表达形式改写为:
y=xB+e
式中,e={e1,e2,…,em}T;
x={1,,,…,}为n个影响观察值的控制变量;
B=[b0,b1]为n'(m+1)阶待求的系数矩阵。
用最小二乘法来估计上式中的y。设yi=Bxi+ei,i=1,2,…,n,则ei=yi-Bxi。假设e是不相关的随机变量,随机变量偏差e的平方和为(最小二乘法函数形式):
L=εTε==
=yTy-yTxB-BTxTy+BTxTxB
=yTy-yTxB-+xB
为了使L(偏差)极小,可求出,并置其为0,可得关于B的线性方程(组),
由解得B矩阵的各个分量。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。