通过相关分析可以说明变量之间相关关系的方向和程度,但是却不能说明变量之间具体的数量因果关系。当自变量给出一个数值时,因变量可能取值是多少,这是相关分析不能解决的。这需要通过新的方法解决,即回归分析。
回归分析,就是建立一个数学方程来反映变量之间具体的相互依存关系,并最终通过给定的自变量数值来估计或预测因变量可能的数值,该数学方程成为回归模型。
在回归分析中,如果变量之间的回归模型是直线方程,则这类回归分析为线性回归分析(直线回归),该直线方程成为线性回归方程。具体的讲,如果直线方程中只有一个自变量和一个因变量,称之为简单线性回归分析;若存在一组自变量和多个因变量,称之为多元线性回归分析。线性回归分析是整个回归分析的基础,本节主要介绍这一部分。
(一)简单线性回归分析
主要任务是在惟一的自变量x和因变量y之间建立一个直线函数,其表现形式为:
=a+bx
需要指出的:x是自变量,是因变量的y的估计值,又称理论值。实际观测值y和理论值
的关系是:y=
+ε,式中ε称为离差,反映了因各种偶然因素、观察误差以及被忽略的其他影响因素带来的随机误差。
(二)决定系数R
决定系数R(相关指数、可决系数)样本决定系数是相关系数r的平方,判定系数是反映相关关系密切程度的重要指标,即回归方程与样本观测值拟合程度判定的指标,但不论是线性相关或非线性相关都可以运用。在非线性中常用R表示,以与线性相关系数r相区别。
r2的值总在0~1。一个直线回归模型如果充分利用了x的信息,则r2越大,拟合程度就越好;反之,如r2不大,说明模型中给出的x对y的信息还不够充分,应进行修改,使x对y的信息得到充分利用。如要判别相关方向要靠回归系数b。
决定系数r2的意义在于解释变异量的比例。若x变项与y变项的相关为0.50(P<0.001),决定系数为0.25,意味着y变项的变异量中,可被x变项解释的变异量百分比为25%;相对的,也意味着x变项的变异量中,可被y变项解释变异量百分比也为25%;而相关系数等于0.50,则表示x变项与y变项间有显著的正相关。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。