
利用普通最小二乘法求得的样本回归直线的特点
利用普通最小二乘法求得的样本回归直线的特点如下:
1、样本回归直线必然通过点(XY);
2、Y 的平均值与Y 的平均值相等;
3、残差e 的均值为零;
4、残差e 与解释变量X 不相关。
OLS(最小二乘法)主要用于线性回归的参数估计,它的思路很简单,就是求一些使得实际值和模型估值之差的平方和达到最小的值,将其作为参数估计值。就是说,通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。最小二乘法可用于曲线拟合,其他一些优化问题也可通过最小化能量或最大化熵用最小二乘法来表达。
一,OLS回归
OLS法通过一系列的预测变量来预测响应变量(也可以说是在预测变量上回归响应变量)。线性回归是指对参数β为线性的一种回归(即参数只以一次方的形式出现)模型:
Yt=α+βxt+μt (t=1……n)表示观测数
Yt 被称作因变量
xt 被称作自变量
α、β 为需要最小二乘法去确定的参数,或称回归系数
μt 为随机误差项
OLS线性回归的基本原则:最优拟合曲线应该使各点到直线的距离的平方和(即残差平方和,简称RSS)最小:
OLS线性回归的目标是通过减少响应变量的真实值与预测值的差值来获得模型参数(截距项和斜率),就是使RSS最小。
为了能够恰当地解释OLS模型的系数,数据必须满足以下统计假设:
正态性:对于固定的自变量值,因变量值成正太分布
独立性:个体之间相互独立
线性相关:因变量和自变量之间为线性相关
同方差性:因变量的方差不随自变量的水平不同而变化,即因变量的方差是不变的

2025-02-09 广告