广义最小二乘法
答案:1 悬赏:80 手机版
解决时间 2021-03-06 03:49
- 提问者网友:饥饿走向夜
- 2021-03-05 09:33
广义最小二乘法
最佳答案
- 五星知识达人网友:不想翻身的咸鱼
- 2021-03-05 10:52
问题一:可行的广义最小二乘法 广义最小二乘法 区别 使用最小二乘法需要一些前提,数据大多数时候是满足这些条件的。但有时候这些条件是不能满足的,这时需要对原始数据作适当变换,让他符合最小二乘法的使用条件,然后继续使用最小二乘法。
从整体上看,在处理数据前作的处理相当于在数据上加权,这个时候就把整个处理过程(包括数据事前的变换以及后来运用最小二乘法)看作加了权的最小二乘法。从这个意义上讲,加权最小二乘法就是最小二乘法。
y=a+b1*x1+b2*x2+e
中的误差项不满足高斯—马尔可夫条件,
即cov(e)=M,M为一个未知协方差阵,那么就要用到两次估计,即要估计出M,再估计系数a,b1,b2。这里常用的是两阶段GLS(两阶段广义最小二乘法),也称为feasible GLS(可行广义最小二乘法)。
这是一个很常见的问题,R中有包吗?我搜了下好像没有找到,可能是没有找仔细。S-PLUS中有吗?
WIKI百科里有feasible GLS的步骤,其实也就是一个迭代的WLS而已。没有对协方差进行估计,还是把应变量不同观测的相关性看作是0.问题二:请教广义最小二乘法和普通最小二乘法的区别 分两步:1、先做一次普通的OLS估计,把得到的残差序列保留下来,假设这个序列为rss2、再做一次OLS,把权重设为1/rss得到即为你想要的结果问题三:如何用eviews做广义最小二乘法 GLS 分两步:
1、先做一次普通的OLS估计,把得到的残差序列保留下来,假设这个序列为rss
2、再做一次OLS,把权重设为1/rss
得到即为你想要的结果
从整体上看,在处理数据前作的处理相当于在数据上加权,这个时候就把整个处理过程(包括数据事前的变换以及后来运用最小二乘法)看作加了权的最小二乘法。从这个意义上讲,加权最小二乘法就是最小二乘法。
y=a+b1*x1+b2*x2+e
中的误差项不满足高斯—马尔可夫条件,
即cov(e)=M,M为一个未知协方差阵,那么就要用到两次估计,即要估计出M,再估计系数a,b1,b2。这里常用的是两阶段GLS(两阶段广义最小二乘法),也称为feasible GLS(可行广义最小二乘法)。
这是一个很常见的问题,R中有包吗?我搜了下好像没有找到,可能是没有找仔细。S-PLUS中有吗?
WIKI百科里有feasible GLS的步骤,其实也就是一个迭代的WLS而已。没有对协方差进行估计,还是把应变量不同观测的相关性看作是0.问题二:请教广义最小二乘法和普通最小二乘法的区别 分两步:1、先做一次普通的OLS估计,把得到的残差序列保留下来,假设这个序列为rss2、再做一次OLS,把权重设为1/rss得到即为你想要的结果问题三:如何用eviews做广义最小二乘法 GLS 分两步:
1、先做一次普通的OLS估计,把得到的残差序列保留下来,假设这个序列为rss
2、再做一次OLS,把权重设为1/rss
得到即为你想要的结果
我要举报
如以上回答内容为低俗、色情、不良、暴力、侵权、涉及违法等信息,可以点下面链接进行举报!
点此我要举报以上问答信息
大家都在看
推荐资讯