回归平方和=自由度×均方
残差均方=残差平方和×残差df
残差F=回归均方÷残差均方
回归是方法,残差在数理统计中是指实际观察值与估计值(拟合值)之间的差,平方和有很多个,不同的平方和的意思不一样,与样本量及模型中自变量的个数有关,样本量越大,相应变异就越大。
df是自由度,是自由取值的变量个数;
均方指的是一组数的平方和的平均值,在统计学中,表示离差平方和与自由度之比;
f是f分布的统计量,用于检验该回归方程是否有意义;
SIG=significance,意为“显著性”,后面的值就是统计出的P值,如果P值0.01<P<0.05,则为差异显著,如果P<0.01,则差异极显著。
扩展资料:
线性回归使用最佳的拟合直线(也就是回归线)在因变量(Y)和一个或多个自变量(X)之间建立一种关系。
多元线性回归可表示为Y=a+b1*X +b2*X2+ e,其中a表示截距,b表示直线的斜率,e是误差项。多元线性回归可以根据给定的预测变量(s)来预测目标变量的值。
逻辑回归是用来计算“事件=Success”和“事件=Failure”的概率。当因变量的类型属于二元(1 / 0,真/假,是/否)变量时,应该使用逻辑回归。这里,Y的值为0或1,它可以用下方程表示。
参考资料来源:百度百科-回归分析
广告 您可能关注的内容 |