高斯--马尔可夫定理的意义在于,当经典假定成立时有视令鸡最显角,我们不需要再去寻找其它无偏估计量,没有一个会优于普通最来自小二乘估计量。也就是说,如果存在一个好的线性无偏估计量,这个估计量的方差最多与普通最小二乘估计量的方差一样小,不会小于普通最小二乘估计量的方差。
高斯-马尔可夫定理总共分为对OLS(Ordinaryleastsquare)普通线性方程有5个假设。
1.AssumptionMLR.1(linearinparameters):假设一要求所有的母集团参数(populationparameters)为常数,用来保证模型为线性关系。即如果母集团方程为危久成尼热延y=a+b1x1+b特速化2x2+...+360问答bkxk+u,所有的a,b1,b2...bk必须为常数。同时u为无法检测的误差项,即实验过程中模型没有包含的因素。
2.AssumptionMLR.2(Randomsampling)假设二:假设我们有n个调查的样本,那么这n个样本必须是从母集团里面随机抽样得出的。以假设一的方程为例,{(xi1,xi2,xi3.....xik,yi):i=1,2,3...n表月粮若甲端查心}
3.AssumptionMLR.3(Noper地坐强清育何胡范德克fectcollinearit图方展机座聚化西y)假设三:在样本(母集团)中,没有独立变量(independentvariable)是常数,并且独立变量之间不能有完全共线性。(根据矩阵方交营质油知标足程的定义,方程会无解)
4.AssumptionMLR.4(Zerocondition怀布离素配志顶吃业记almean)假设四:母贵前集团方程的误差项的均值为0,并且均值不受到独立变量的影响,可以表示为:E(U/X1,X2...Xk)=0
5.AssumptionML让皮重R.5(Homosce员阶讨种打院dasticity):假找设五:同方差性,误差项u的方差不受到独立变量的影响为一个固定不变的值,可以表示为:Var(u/X1,X2...Xk)=σ[1]
在统计学中,高斯-马尔可夫定理是指在误差零均值,同方差,且相关的线性回归模型中,回归系数的最佳线性无偏估计就是最小方差估计。一般而言,任何回归系数的线性组合之BLU白较袁牛统全型E(BestLinearUnbiase探示构民司双dEstimators)就是它的最小方差估计。在氢危十货商来掌这个线性回归模型中,其误差不需要假定为正态分布或独立同分布(而仅需要满足相关娘愿却和方差这两个稍弱的条件)。
指在给定经典线性回归的假定下,最小二乘估计量是具有最小方差的线性无偏估计量的这一定理。
高斯--马尔可夫定理的意义在于,当经典假定成立时,我们不需要再去寻找其它无偏估雷宣来钟计量,没有一个会优于普通最小二乘估计量。也就是说,如果存在一个好的线性无偏估计量,这个估计量的方差最多与普通最小二乘估计量的方差一样小,不会小于普通最小二乘估计量的方差。