1. Notation

2. Assumptions관련

3. Estimator관련

4. Hypothesis Testing관련


3. Estimator관련

-Coefficient Estimators

-SGMM

-Consistency되려면 Assumptions 4개 필요

-Asymptotic Normality되려면 Assumptions 4개 필요

-Avar를 estimate하려면 Assumptions 5개 필요

-Consistent estimate of error variance를 구하려면 Assumptions 5개 필요

-S=E[gg]를 estimate하려면 

-coefficient consistent estimator가 미리 존재+finite fourth moments

-혹은 consistent estimator of sigma^2+conditional homoskedasticity

-IV

-정의시 필요한 추가 Assumptions

-Exactly identified(K=L and rank condition 만족)

-OLS

-IV에서 IV=Regressor라면 IV-Estimator는 OLS-Estimator됨

-Efficient SGMM

-Efficient SGMM을 얻으려면 추가로 assumption 1개 더 필요(S의 consistent estimator가 있어야한다는)

-Efficient SGMM은 2-step으로 얻어진다.

-conditional homoskedasticity를 가정한다면, 추가 assumption이 필요없어지고 1-step으로 얻어짐

-2SLS

-정의시 필요한 추가 Assumptions

-conditional homoskedasticity를 이용하여 weighting matrix를 택하는 경우

-또 다른 유도법

-IV Estimator로써 유도가능

-Two Regression으로 유도가능(그래서 2SLS라 한다.)

-Sargan's Statistic과 관련됨

-모든 regressors가 IV에 포함된다면(under conditional homoskedasticity), 2SLS는 OLS됨

-MGMM

-consistency, Asymptotic Normality, Avar 는 SGMM과 같음

-Consistent estimate of error variance->consistent estimate of contemporaneous error cross-equation moments

-Assumptions 5개 필요

-S=E[gg]를 estimate하려면

-coefficient consistent estimator가 미리 존재+finite fourth moments

-conditional homoskedasticity+E[z_im*z_ih]:exists and finite

-equ-by-equ SGMM's는 MGMM의 특수경우이다.

-Joint할 경우 equ-by-equ보다 더 efficient해 지는데, 단점도 있음

-small-sample properties가 줄어듦

-correctly specified될 확률이 낮아짐, 1개의 equ가 not orthogonal이어서 나머지도 모두 inconsistent하게 될 수 있음

-MGMM with common coefficient가 MGMM의 special case같지만, 사실상, 임의의 MGMM을 with common coefficient로 바꿀 수 있다.

-Efficient MGMM

-equ-by-equ efficient SGMM's가 Efficient MGMM이 될 충분조건이 있다.

-Exactly Identified이거나

-혹은 equations are unrelated거나


-FIVE

-정의시 필요한 추가 Assumptions

-conditional homoskedasticity를 이용하여 weighting matrix를 택함

-Sargan's Statistic과 관련

-3SLS

-정의시 필요한 추가 Assumptions

-IV가 모든 equations마다 같음

-SUR(Seemingly Unrelated Regressions)

-정의시 필요한 추가 Assumptions

-IV가 모든 regressors의 union(over all equations)

-overidentified이면, SUR가 equ-by-equ SGMM's(OLS)보다 efficient

- 이것도 unrelated하면, efficient같게됨, 즉 asymptotically equivalent

-Multivariate Regression

-정의시 필요한 추가 Assumptions

-Just identified

-MGMM=equ-by-equ SGMM's됨

-Multivariate Regression을 SUR+priori restrction으로 볼 수 있고, 이경우 후자가 더 efficient

-Random Effect Estimator

-정의시 필요한 수정된 Assumptions

-linearity with common coefficient

-identification with common coefficient

-Pooled OLS

-(GMM입장)weighting matrix를 특별한 걸 대입해서 얻음, OLS로 얻는 것임

-따라서 orthogonality condition보다 약한 걸 exploiting

-data index 2개중 1개를 무시해버려서 다 모아버려서 OLS하는 것임(따라서 pooled OLS라 함)

-장점:

-계산량이 적음

-robust to the failure of the cross orthogonalities, 즉 cross orthogonality가 성립하지 않더라도 consistent한 estimator

-주의:

-Standard Error by OLS Package가 biased

-Fixed-Effect Estimator

-consistent(전체 error의 conditional homoskedassticity가 없어도)

-asymptotic normal(전체 error의 conditional homoskedassticity가 없어도)

-Avar를 consistent하게 estimate가능 with conditional homoskedasticity

(conditional homoskedasticity가 없어도 finite fourth moment가정있으면 됨)

-not efficient

-fixed effect의 spherical condition을 가정하면, fixed effect의 variance를 consistent하게 estimate가능

-Random Effect는 3개를 더 가정함, Fixed-Effect는 이 3개를 만족하지 않더라도 consistent

(즉 Fixed-Effect는 Random Effect보다 less efficient지만, consistent가 유지될 가능성이 높음)





+ Recent posts