p-53, Testing hypotheses부터

*계량경제학의 특징

-실험경제학이 아니고서야 경제학의 데이터는 실험에 의해 생성될 수 없다. 따라서 random variables로 간주한다.

 

*관련통계지식

-R squared

-model이 얼마나 fit하냐를 quantity로 제시해줌

-1에 가까울 수록 well fitted, 0에 가까울 수록 worst

-Influential Analysis

-어떠한 observation이 influential인지 확인, 그리고 그 observation을 반드시 포함하거나 반드시 제거할 지 결정

-Normal Distribution의 성질

-평균과 분산만 알면 됨

-(x1,x2)~jointly normal이고 uncorrelated이면 independent(대게는 uncorrelated라해서 independent하진 않음)

-jointly normal의 linear combination도 jointly normal

 

*주요 가정 모음

-Linearity

-f(종속변수), g(설명변수)추가 등의 테크닉으로 단순 linear만 포함하는게 아니게 됨

-Strict exogeneity(E(eps_i|X)=0)

-Strict exogeneity를 만족하면 다음을 만족한다.

-E[eps_i]=0

-E[epx_i * x_(j,k)]=0

-Cov[eps_i * x_(j,k)]=0

-No multicollinearity(P[rank(X)]=1)

-rt(X)*X:pd

-Conditional homoskedasticity(E[(eps_i)^2|X]:same for any i, positive)

-sample이 iid였다하더라도 만족되는 가정이 아님, 구체적인 x값이 있을 때 eps의 second moment가 0여야 한다는 점 때문)

-Unconditional homoskedasticity(E[(eps_i)^2]:same for any i, positive)

-sample이 iid였다면 만족되는 자동으로 만족되는 가정임

-No correlation between observations(E[eps_i * eps_j|X]=0, for distinct i,j)

-Spherical error variance(Homoskedasticity and No correlation between observations)

-Normality of the error term(eps|X ~ jointly normal)

 

 

 

*주요 테크닉

-f(종속변수)

-따라서 non-linear인 경우도 linear regression가능

-오차항을 어케두냐가 문제됨

-semi-log form(종속변수(y) 그대로 regression에 쓰지말고 log(y)형태로 쓰기)

-g(설명변수) term추가

-따라서 marginal effect가 설명변수 값에 따라 다른 경우도 linear regression가능

-양변에 E[]취해보기

-양변에 E[ |sth]취해보기

 

 

*주요 Estimator

-OLS(Ordinary Least Squares)

-under Linearity, Strict Exogeneity, No multicollinearity, Conditional homoskedasticity, No correlation between observations

-OLS for β

-b = argmin over β SSR(β) = inv(rt(X)*X) * rt(X) * y

-E[b|X] = β

-E[b] = β

-V[b|X] = σ^2 * inv(rt(X)*X)

-for any unbiased estimator β,  V[β|X] - V[b|X]:psd

-따라서 unbiased estimator중 가장 작은 variance를 가지는 estimator임, BLUE(Best Linear Unbiased Estimator)

-for any unbiased estimator β,  V[β] - V[b]:psd

-Cov[b, e|X]=0, where e = y - Xb

-OLS for σ^2, s^2 = SSR/(n-K)

-E[s^2|X] = σ^2

-P = X * inv(rt(X) * X) * rt(X), projection

-M = IMT - P, annihilator

-R squared

-OLS의 경우 regressor의 개수가 추가될 수록 R squared는 monotone increasing

-따라서 adjusted R squared 사용해야함

-Influential Analysis

-P_(i,i)는, [0,1]에 속하고, sum P_(i,i) = 1

-P_(i,i)의 크기가 K/n보다 많이 크면 i번째 observation이 influential한 것으로 판단,

-이 observation이 모델에 well-fitted이면 반드시 포함되어야할 관측치지만 대부분의 경우는 not fitted

-따라서 outliar로 보고 빼는게 좋은 관측치

 

*Time-Series

*예제모음

 

+ Recent posts