*Rules

1. Chapter별로 내용 정리, Chapter별 중요 내용 정리

2. Chapter별 연습문제 스캔해서 올리기

3. 각종 예제들 적기


*Chapter 1 Finite-Sample Properties of OLS

-Abstract

-Finite-Sample Properties란, sample size가 무엇이든 성립하는 properties를 가리킨다.

-OLS는 Estimation의 가장 basic

-Section 1.1 The Classical Linear Regression Model

-가정 Linearity(1)

-추정 계수는 marginal effect를 가리킨다.

-simple regression model이란, nonconstant regressor가 1개일 때를 가리킨다.

-semi-log form이란, 종속변수가 log를 취한 형태일 때를 가리키고, 이때의 추정계수는 percentage change를 가리킨다.

-regressor의 함수형태를 다양하게 도입할 수 있다. 이때 error term이 additive인지 multiplicative인지 판단 중요

-error term이 multiplicative이면 semi-log form가능하지만 아니면 nonlinear regression 이용

-실제로 nonlinear regression은 chapter 7에서 다룸

-가정 Strict Exogeneity(1)

-Strict Exogeneity, 즉 conditional expectation of error terms on data matrix = 0이란 가정에서 = 0 이란 가정이 그렇게 강력하지는 않은게, constant regressor를 도입하면 되므로

-expectation의 성질을 이용해 implications를 얻음(unconditional mean, orthogonal, uncorrelated등)

-대부분의 time-series에서는 strict exogeneity를 근거로한 finite-sample theory가 없음, strict exogeneity가 성립 잘안함

(large-sample theory는 많음)

-strict exogeneity가 성립하지않는 예로는 AR(1)이 있음

-가정 Strict Exogeneity(1-2)

-conditional을 오직 contemporaneous i에 대해서만 줄 때

-가정 Strict Exogeneity(1)보다 약함

-가정 No Multicollinearity(1)

-regressor 개수보다는 observations의 개수가 많아야한다는 의미를 지님(가정의 필요조건)

-종류가 다른 regressors의 실제 다른 값을 갖는 예가 있어야 한다는 의미를 지님

-실제 추정에서의 의미는, OLS estimator for coefficient을 구할 때, (X'X)의 positive-definite, 따라서 invertible보장해줌)

-가정 Spherical Error Variance(1)

-error term이 i에 대해서 분산이 일정하다는 의미

-게다가 no serially correlation이란 의미

-Classical Regression Model for Random Sample일 때는

-random sample(즉 iid로 종속변수와 독립변수를 얻을 때)는 strict exogeneity와 Spherical Error Variance가 reduce됨

-Spherical Error Variance가 reduce되긴 하지만, 없어지진 않는다. 

-iid라해서 functional form은 같다는 걸 알지만, observation index i에 대해서 constant여야함은 iid로 얻어지지않음

-Review questions

-1번:측정단위가 달라지면 어떻게 변하는가?

-2번:random sample에서의 Spherical Error Variance가정의 형태

-3번:combining linearity and strict exogeneity(즉 가정 2개를 합치면 필요충분조건 1개 얻음)

-4번:random sample이 joint distrb가 normal인 경우, 가정 4개를 한번에 다만족함을 알 수 있다.

-5번:simple regression model에서는 No Multicollinearity가정은 nonconstant regressor가 실제로 nonconstant냐는 것과 동치

-6번:Strict Exogeneity와 Spherical Error Variance는 unconditional 통계량도 알 수 있게 해준다.

-Section 1.2 The Algebra of Least Squares

-OLS-estimator란 SSR를 최소화 시킨다.

-이로소 OLS-estimator는 large residuals은 제거하고 small residual을 포함하는게 배경

-OLS-estimator는 normal equations(first-order necessary condition)을 통해 구할 수 있다. 

-OLS-estimator는 data matrix로 표현하거나, sample averages의 곱으로 표현하거나, 2가지 표현가짐

-선형대수에서 Projection(P)과 annihilator matrix(M)를 이용하면, 최소화된 SSR의 표현이 error term으로 표현가능

(error term으로 표현해야, OLS의 가정들을 어떻게 쓸 지 보인다. 따라서 OLS의 성질을 증명하는 데에 있어서 먼저 error term으로 표현하는 게 첫 과정)

(다른 것들도 P,M이용시 표현 간결하게 됨)

-OLS에서 추정해야되는 대상은, regressor coefficient도 있지만, error term의 variance도 있다(in Spherical Error Variance Assumption). OLS-Estimator for error term variance 또한 정의할 수 있다. 

-몇가지 Regression의 정확도 지표

-Uncentered R-Squared

-[0,1]의 값을 가지며 1에 가까울수록 설명력이 강함

-종속변수든 regressor든 측정단위변화해도 값변화하지 않음

-Centered R-Squared(Coefficient of determination이라고도 함)

-regressors중 constant가 있어야 [0,1]의 값을 가짐

-constant항이 없다면 음수가 될 수도 있음

-통계프로그램중 상수항이 없을 때, centered R-squared를 그대로 구해주는 게 있는 반면, 상수항이 없다면 uncentered R-squared를 구해주는 프로그램도 있다. 따라서 사용하는 통계프로그램이 R-Squared를 어떻게 구해내는지 확인할 필요 있다.

-(Page 21, this is a miexeed blessing부터 이해안됨 특히 seasonal dummy variable...)

-종속변수든 regressor든 측정단위변화해도 값변화하지 않음

-1에 가까울수록 설명력이 강함

-Influential Analysis(Optional)

-outlier를 체크하는 방법, influential data를 체크하고 그것을 제거하여 다시 estimate할 수도 있다.

-OLS-Estimator를 실제 컴퓨터로 계산시 유의사항

-regressors끼리 측정단위를 유사한 크기로 만들어라. 그래야 계산오류가 적음(floating-point numbers의 한계극복법)

-data matrix를 transform해서 이용하기도 함. 예를 들어 QR-Decomposition이용

-Review questions

-1번:data matrix^* 곱 data matrix의 positive-definite(from No Multicollinearity 가정)

-2번:(data matrix^* 곱 data matrix)/n의 sample average형태로 표현

-3번:constant regressor가 있는 simple regression model에서 data matrix^* 곱 data matrix의 sample average형태이해와, OLS-estimator의 구체적인 형태

-4번:Projection Matrix의 idempotent, Hermitian, annihilator의 성질

(교재에서의 Projection Matrix는 orthogonal projection matrix이고, 따라서 Hermitian, idempotent, annihilator도 orthogonal projection matrix, 따라서 Hermitian, idempotent)

-5번:

-fitted value vector는 projection matrix*원래 y vector

-OLS residual vector은 annihilator matrix*원래 error term vector

-6번:종속변수든 regressors든 측정단위를 변화시켜도 R-squared(centered든 아니든)은 변하지 않는다.

-7번:Uncentered R-squared와 centered R-squared사이의 관계

-8번:Uncentered R-squared의 다른 표현(using Projection matrix)

-9번:결국엔 관심사는 추정계수, 최소 SSR, OLS-estimator for error term variance, R-squared인데, 이 4가지는 다음 4가지를 통해 구할 수 있다. 따라서 OLS를 함에 있어서 다음 4가지를 적어도 1번은 구해야한다.

-sample average of data matrix^*(X) 곱 data matrix(X)

-sample average of data matrix^*(X) 곱 data matrix(y)

-sample average of y^2

-sample average of y

-Section 1.3 Finite-Sample Properties of OLS

-OLS-estimator for coefficient의 finite sample properties

-가정 linearity(1), strict exogeneity(1), No Multicollinearity(1)일 때

-unbiased

-가정 linearity(1), strict exogeneity(1), No Multicollinearity(1), Spherical error variance(1)일 때

-estimator의 conditional variance on data matrix의 형태

-BLUE(in the sense that conditional variance on data matrix)

(unconditional variance of estimator도 최소 of linear and unbiased임을 알 수 있다.)

-conditional covariance of OLS residual vector and OLS-estimator for coefficient on data matrix = 0

-OLS-estimator for error variance의 finite sample properties

-가정 linearity(1), strict exogeneity(1), No Multicollinearity(1), Spherical error variance(1), n>K(n=K을 배제해서 estimator정의되게끔)일 때

-unbiased

(이것을 이용하면, estimator의 conditional variance on data matrix 또한 estimate가능

-Review questions

-1번:No Multicollinearity의 의미(data matrix^* 곱 data matrix의 invertible보장)

-2번:Consumption function example에서, linear and unbiased estimator different from OLS 존재성

-3번:Gauss-Markov Theorem은 OLS-estimator가 Linear in 종속변수 이면서 unbiased중에서 best란 것

-4번:unconditional variance of OLS-estimator for coefficient임도 알 수 있다.

-5번:error term을 알수만 있다면 굳이 OLS-estimator for error variance를 SSR/(n-k)할 필요없이 unbiased한 것 쉽게 앎

-6번:"-conditional covariance of OLS residual vector and OLS-estimator for coefficient on data matrix = 0" 증명

-7번:influential analysis에 쓰이는 Projection matrix의 대각성분의 성질([0,1]에서의 값을 갖고, 총합은 K)

-note)Projection Matrix의 성질 모음

-idempotent

-hermitian

-positive-semidefinite(왜냐하면 data matrix^* * data matrix가 positive-definite이므로)

-rank=K

-trace=K

-note)annihilator matrix의 성질 모음

-idempotent

-hermitian

-positive-semidefinite(결국 다른 projection matrix로 간주될 수 있으므로)

-rank=n-K

-trace=n-K

-Section 1.4 Hypothesis Testing under Normality

-이 Section에서의 Hypothesis Testing의 의의

-Regression Model은 Economic Theory에 의해 motivated, 이 때 어떠한 경우에는 직접적으로 regression coefficient의 값에 restriction을 주기도 한다. 근데 실제로 estimate를 얻은 것이 이 restriction과는 다를 수 있는데(sampling에 의한 결과이므로), 이 때 restriction이 기각할 지 아니면 기각하지 않을 지(그렇다고 참인지는 모르는) 판단의 근거를 제공해준다.

-regression model에서의 경우, error term과 data matrix의 joint distrb가 필요하진 않고, conditional distrb of error on data matrix만 필요하게 된다는 것이 좋은 사실

-Test 배경

-Null hypothesis+본래 model assumption=maintained hypothesis라 한다. 이것을 먼저 설정

(maintained hypothesis가 참일 때, correctly specified model이라 한다.)

(correctly specified model일 때만, 가설검증함, 그렇지 않은 경우, Null hypothesis가 true더라도 기각하게 되는 결과를 낳을 수 있다. 하지만 실제로 correctly model인지를 알 수는 어렵다.)

-error term관련

-regressor가 capture하지 못하는 부분의 총체->normality가정하는데 motive

-혹은 measurement error->normality가정하는데 motive

-가정 Normality of the error term(1)

-conditioning on data matrix, error term vector에 관한 가정(jointly distrb)

-기존 가정 Strict Exogeneity, Spherical error variance덕에, conditional distrb of error term vector on data matrix를 구체적으로 알 수 있다. 게다가 그 때의 평균과 분산이 data matrix에 not dependent이므로 unconditional distrb까지도 알 수 있게 된다.

-OLS-Estimator for coefficint의 sampling error도 conditional normal on data matrix임을 앎(이때는 uncondition은 모름)

-Test statistic이 되기위한 조건들

-sample로부터 계산이 되어진다.

-conditional distrb on data matrix not depend on data matrix, 따라서 data matrix가 뭐든 unconditional distrb를 가져야(statistic의 값이 not depend on data matrix라는 소리가 아님, 주의)

-distrb가 known

-1개의 Coefficient에 Hypothesis Testing절차 in OLS-Estimator for coefficient(T-test, two-side test)

-가정 linearity(1), Strict Exogeneity(1), No Multicollinearity(1), Spherical Error Variance(1), Normality of the error term, Null hypothesis:true란 가정들이 필요

-먼저 가설검증할 대상 계수의 null hypothesis를 결정

-sampling error분포로부터 표준화시킨 표준정규분포를 얻음

-error variance를 모르므로 그것 또한 OLS Estimator for error variance로 교체(t-ratio 혹은 t-value 얻음)

(TD(n-k)를 따름)

-significance level를 결정

-critical values(2개, 근데 절댓값같고 부호만 다름)를 구함(in the t-distrb table)

-t-value와 critical value비교를 통해, 기각할건지(reject), 기각하지않을 건지(accept) 판단

(Null이 true인데 기각할 확률은 significance level이 된다. Null이 true인데 accept할 확률은 (1-significance level)

(critical value는 n-K에만 의존하지 data에는 의존안하므로, sample이 바뀐다면(size는 유지하면서) critical value는 1번만 구하면 된다.)

(위의 과정을, Null의 coefficient value가 some interval에 놓여있다고 믿어질 수 있는 구간을 

level (1-significance level) confidence interval이라고도 한다. 특징은 OLS-Estimator for a coefficient(1개)의 standard error가 작을수록 같은 significance level에서 이 confidence interval의 길이가 짧아진다.)

(즉, 유의수준은 Null이 true인데 reject할 확률, 신뢰구간은 모수가 (1-유의수준)으로 들어갈 interval을 가리키고 standard error가 작을수록(같은 유의수준에서) 신뢰구간이 짧아진다.)  

-혹은 t-value를 통해 p-value를 구하고, p-value와 significance level과 비교를 통해 기각할건지 기각하지 않을 건지 판단

(p-value는 0과 1사이 값을 갖고, 0에 가까울수록, 기각할 가능성이 높아짐)

note) critical value사용 vs p-value 사용

전자는 분포의 정의역값 관점이고, 후자는 분포의 확률 관점이다. 전자를 쓰든 후자를 쓰든 기각결정이 바뀌지 않음

-Linear Null Hypothesis인 경우(F-test)(one-side test)

-가정 linearity(1), Strict Exogeneity(1), No Multicollinearity(1), Spherical Error Variance(1), Normality of the error term, Null hypothesis:true란 가정들이 필요

-먼저 가설검증할 대상 계수들의 linear null hypothesis를 matrix로 표현(full row rank형태로)

-F-ratio값을 얻는다(FD(방정식개수, n-K)를 따른다.)(Wald principle)

(SSR under restriction과 그냥 SSR로써 F-ratio identity존재, 그것을 이용하는게 편리할 수도, Likelihood ratio principle, 이후 논의)

-significance level를 결정

-critical value를 구함(in the F-distrb table)

(혹은 F-ratio값을 통해 p-value를 구하고)

-critical value와 F-ratio값 비교를 통해 기각할지 말지 결정

(p-value와 significance level 비교를 통해 기각할지 말지 결정)

-T-test VS F-test

-F-test for linear null hypothesis에서 방정식이 1개일 땐, T-test와 같은 결과를 가짐

-방정식이 다수일 때 2가지 방법이 존재

-T-test를 방정식 개수만큼 이용하거나(단, 이때는 모든 결과가 기각하지 않는 걸로 나올 때, 전체 null hypothesis를 기각하지 않기로 약속)

-F-test 한번 이용하거나

-결과

-F-test를 선호한다. 그 이유는

-Null이 true일 때 기각할 확률이 significance level이란 말이 계속 적용가능

(T-test를 여러번 사용하는 경우 고정된 significance level에 대해서, Null이 true인데 reject할 확률이 test 방정식 개수가 늘어날수록 점점 더 증가한다.)

-F-test는 likelihood ratio test이므로 좋은 성질들을 가짐(이후 논의)

-Review questions

-1번:conditional distrb으로부터 unconditional distrb되는지 확인(whether depends on data matrix)

-2번:T-test할 때, standard error of a coefficient 또한 다음 4가지로 구해질 수 있다.(Section 1.2 review questions 9번 참고)

-sample average of data matrix^*(X) 곱 data matrix(X)

-sample average of data matrix^*(X) 곱 data matrix(y)

-sample average of y^2    

-sample average of y

-3번:F-ratio유도할 때의 well-defined, matrix의 가역성 보장확인

-4번:one-tailed T-test설명(즉 null hypothesis는 같은데, alternative hypothesis가 one-side일 때)

-5번:restriction에서 방정식1개일 때, F-value=T-value임을 확인하는 예

-6번:방정식이 여러개일 때, T-test를 반복적으로 사용한다면, null이 true일 때 reject할 확률이 점점 커짐(significance level보다 커진다.)

-7번:OLS-estimator for error variance의 conditional variance on data matrix

-Section 1.5 Relation to Maximum Likelihood

-Maximum Likelihood는 Estimate하는 방법중 1가지를 가리킴

-자세한 것은 Chapter 7 Extremum Estiamtor에서 다루고, 여기서는 OLS Estimator for coefficients와 OLS Estimator for error variance를 ML Estimator로서 얻어진 Estimator와 비교

-ML Estimator를 얻기위해선 먼저 density의 form을 가정해야만 한다. 그리고 densities를 parametrizing해야함

-Classical Regression에서는 Conditional Likelihood Function의 parameter만을 다루면 된다. 왜냐하면 Regressors Data의 density를 specify할 수 없으므로(가정이 없으므로)

-가정 Linearity(1), Strict Exogeneity(1), Spherical Error Variance(1), Normality Error Term(1)에서 

-종속변수|regressors는 Normal을 따르고 그것의 density에 log씌운 log likelihood function을 얻을 수 있다. 

-parameter은 coefficients vector와 error variance가 된다.

-ML Estimator for coefficient

-가정 Linearity(1), Strict Exogeneity(1), No Multicollinearity(1), Spherical Error Variance(1), Normality Error Term(1)에서 

-ML Estimator for coefficient=OLS Estimator for coefficient

-BUE(Best Unbiased Estimator)

(통계학에서 Cramer-Rao Bound이용)

-ML Estimator for error variance

-가정 Linearity(1), Strict Exogeneity(1), No Multicollinearity(1), Spherical Error Variance(1), Normality Error Term(1)에서 

-ML Estimator for error variance=OLS Estimator for error variance * ((n-K)/n), 즉 분모가 n-K가 아니라 n이 됨

-biased

-Best(즉, conditional variance on data matrix가 최소임은 앎)

-Likelihood ratio test

-L_U/L_R, 즉 restriction없을 때의 likelihood function L_U와 restriction있을 때의 likelihood function L_R을 비교

-L_U/L_R이 too large하면 Null hypothesis를 기각함

-Classical Regression에 가정 linearity(1), Strict Exogeneity(1), No Multicollinearity(1), Spherical Error Variance(1), Normality of the error term, Null hypothesis:true란 가정하에 얻은 F-ratio를 monotone function에 취하면 L_U/L_R을 얻음, 따라서 기존의 F-test를 Likelihood ratio test로서 간주할 수 있다.

-Section 1.6 Generalized Least Squares

-가정 GLS

-error terms의 conditional second moment가 sigma^2 * V(data matrix)을 가리킴, 여기서 V(data matrix)는 행렬이고 data matrix에 의존하는 것을 가리킴. V(data matrix):known and invertible임도 가정함

-sigma^2*V(data matrix)로 decompose한 이유는 estimate for coefficient할 때 sigma^2항은 필요 없고 V(data matrix)만 필요하기 때문

-가정 Spherical Error variance(1)와는 다른 점은

-conditional homoskedasticity를 만족안할 때를 cover

-error term이 uncorrelated하지 않을 때를 cover하기 위함

-OLS Estimator의 성질

-biased는 유지된다. 애초에 가정 Spherical Error variance(1)이 필요하지 않았음

-not BLUE

-t-ratio, F-ratio가 각각 TD, FD를 따르지 않게 되므로 Hypothesis test를 적용할 수가 없다.

-GLS Estimator만들기


*Chapter 2 Large-Sample Theory

-Abstract

-Chapter 1에서의 다음 가정들이 성립하지 않을 때가 많다.

-strict exogeneity

-normality of the error term

-linearity

-Chapter 2에서는 위의 3가지 가정 중 linearity는 되는데 나머지 2개가 성립안할 때의 해결법을 다룬다.

(즉, linearity, spherical error variance, no multicollinearity는 성립할 때를 생각한다.)

-Large-Sample Theory란, sample size가 아주 클 때의 estimator와 관련된 statistics의 distribution을 approximation함

-Application에서는 Fisher Hypothesis에서의 Fama's classic paper를 다룸

-의의는 정부의 재정정책과 조세정책이 aggregate demand에 영향을 미치지 못한다는 결과를 낳는다.

-Section 2.1 Review of Limit Theorems for Sequences of Random Variables

-Section 2.2 Fundamental Concepts in Time-Series Analysis

-기본적인 확률, 통계 개념

-Asymptotically equivalent

-Avar

-CAN

-sqrt(n)-consistent

-{rdv_n}:iid일 때

-in L1이면

-sample mean:pt cv a.e. to 모평균, cv in L1 to 모평균

-in L2이면

-sample mean:cv in distrb to ND(모평균,모분산/n)

-sample variance:cv in M to 모분산

-delta-method

-ensemble mean

-stationary

-trend stationary

-difference stationary

-weak stationary

-white noise process, independent white noise

-ergodic

-Ergodic Theorem(Main Theorem)

-{rdv_n}:ergodic stationary, in L1이면 sample mean:pt cv a.e. to 모평균

-mg, mgd

-ARCH(1)

-CLT for Ergodic Stationary Mgd(Main Theorem)

-{rdv_n}:Ergodic Stationary Mgd, in L2이면 sample mean cv in distrbt to ND(0,(second moment of rdv)/n)

-Section 2.3 Large-Sample Distribution of the OLS Estimator

-가정 Linearity(2)

-가정 Ergodic Stationary(2)

-jointly ergodic and stationary를 가리킨다. 

-ergodic은 independent와 관련있는 것이고 stationary는 identical distribution과 관련된 것

-error terms도 stationary임을 알 수 있음(따라서 error term의 unconditional homoskedastic은 알 수 있음)

-하지만 i-error terms의 i-conditional homoskedastic은 알 수가 없다.

-가정 Predetermined Regressors(2)

-regressors들이 contemporaneous error term에 대해서 orthogonal인 것을 가리킴

-가정 Strict Exogeneity(1)이 더 강하다.

-가정 Strict Exogeneity(1-2)이 더 강하다.

-가정 Predetermined Regressors(2-2)

-regressors들이 모든 error term에 대해서 orthogonal인 것을 가리킴

-가정 Predetermined Regressors(2)보다 강하다.

-가정 Strict Exogeneity(1)이 더 강하다.

-regressors중 constant가 있다면 {error_i}:mgd, 따라서 serially uncorrelated됨

-가정 Rank Condition(2)

-regressors의 second moments가 invertible임을 가리킨다.

-가정 Ergodic Stationary(2)와 함께 생각하면 가정 No Multicollinearity(1) for large n이 성립함을 알 수 있다.

-가정 Mgd with invertible second moments(2)

-vec{g_i}가 mgd이고 second moments가 invertible임을 가리킨다.

-sample mean of vec{g_i}의 Avar가 vec{g_i}의 second moment임을 알 수 있다. with 가정 Ergodic Stationary(2)

-가정 Predetermined Regressors(2)보다 강하다.

-가정 Sufficient Mgd(2)

-E[error_i | 이전error, 이전regressors, regressos_i]=0을 가리킴

-vec{g_i}가 mgd가 되는 충분조건

-error terms의 uncorrelation을 얻음

-가정 Consistent Estimator for second moments of vec{g_i}(2)

-second moments of vec{g_i}의 consistent estimator의 존재성을 가리킴

-가정 Error Term in L2(2)

-E[error_i^2]:finite을 가리킴

-Chapter 1에서는 가정 Spherical Error Variance에서 E[error_i^2]:finite을 가정함, 하지만 Chapter 2에서는 그런 가정이 없으므로 필요해짐 

-가정 Consistent Estimator for Coefficients(2)

-regression의 coefficients의 consistent estimator의 존재성을 가리킴

-가정 Linearity(2), Ergodic Stationary(2), Predetermined Regressors(2), Rank Condition(2)일 때 OLS estimator가 consistent이므로 가정 Consistent Estimator for Coefficients의 예가 될 수 있다.

-OLS Estimator for coefficient

-가정 Linearity(2), Ergodic Stationary(2), Predetermined Regressors(2), Rank Condition(2)일 때

-consistent

-가정 Linearity(2), Ergodic Stationary(2), Rank Condition(2), Mgd with invertible second moments(2)일 때

-sqrt(n)*(Estimator - true coefficient vector):cv in distrb to ND

-가정 Linearity(2), Ergodic Stationary(2), Rank Condition(2), Mgd with invertible second moments(2), Consistent Estimator for second moments of ver{g_i}(2)일 때

-Avar(Estimator) 또한 consistently estimated

-OLS Estimator for error variance

-가정 Linearity(2), Ergodic Stationary(2), Predetermined Regressors(2), Rank Condition(2), Error Term in L2(2)일 때

-Consistent

-Section 2.4 Hypothesis Testing

-Power of a test(Null hypothesis가 false일 때)(Test가 좋은지 안좋은지 평가방법)

-Large-Sample Theory에서는 Test가 limit distribution에 의존한다. 하지만 우리는 sample의 개수가 무한개일 수는 없다.

-sample size가 주어졌을 때 Null hypothesis가 false일 때 reject할 확률을 power of a test라 한다. 즉, power가 클수록 좋은 것

-a test is consistent against {DGP s.t. Null hypothesis:실제 false and 다른 가정:true}란

significance level이 주어지고

DGP is given in {DGP s.t. Null Hypothesis:실제 false}일 때

as sample size n->inf, power=1

-a consistent test with {DGP s.t. Null hypothesis:실제 false and 다른 가정:true}에서 만약 sample size n마다 DGP_n을 택하는 경우에 as n->inf, power of the test against {DGP_n}가 1이 아닌 경우에 {DGP_n}을 a sequence of local alternatives라 한다. 그리고 이 때 as n->inf, power of the test against {DGP_n}값을 asymptotic power라 한다.

-Pitmann sequence가 그 예

-1개의 Coefficient에 Hypothesis Testing절차 in OLS-Estimator for coefficient(robust t-ratio, two-side)

-가정 Linearity(2), Ergodic Stationary(2), Predetermined Regressors(2), Rank Condition(2), Mgd with invertible second moments(2), Consistent Estimator for second moments of vec{g_i}(2), Null hypothesis:true란 가정 필요

-robust t-ratio:cv in distrb to ND(0,1)이용

(이 말은 robust t-ratio이용한 test는 consistent against {DGP s.t. Null hypothesis:false and 다른 가정 6개:true}란 말)

-robust t-ratio값 구한 다음에는 Chapter 1에서의 절차와 같음(significance level를 결정...)

-robust t-ratio는 consistent against {DGP s.t. 

-note)Chapter 1 Finite-Sample Theory에서와 다른 점은

-Standard Error를 다르게 구한다.(robust t-ratio 경우 Heteroskedasticity consistent standard error라 한다.)

-TD(n-K)가 아니라, ND(0,1)을 이용한다.

-robust t-ratio가 정확히 ND(0,1)을 따르는게 아니라 cv in distrb to ND(0,1)이므로

-Null Hypothesis가 true인데 reject할 확률은 significance level와 같지 않고 근사적으로 같다. sample size가 커지면 significance level에 수렴함

-Linear Null Hypothesis인 경우(Wald Statistic, one-side)

-가정 Linearity(2), Ergodic Stationary(2), Predetermined Regressors(2), Rank Condition(2), Mgd with invertible second moments(2), Consistent Estimator for second moments of vec{g_i}(2), Null hypothesis:true란 가정 필요

-Wald Statistic:cv in distrb to CSD(방정식 개수)이용

(이 말은 robust t-ratio이용한 test는 consistent against {DGP s.t. Null hypothesis:false and 다른 가정 6개:true}란 말)

-Wald Statistic값 구한 다음에는 Chapter 1에서의 절차와 같음(significance level를 결정...)

-note)Chapter 1 Finite-Sample Theory에서와 다른 점은

-FD(방정식개수,n-k)가 아니라 CSD(방정식개수)를 이용한다.

-Wald Statistic이 정확히 CSD(방정식개수)를 따르는게 아니라 cv in distrb to CSD(방정식개수)이므로

-Null Hypothesis가 true인데 reject할 확률은 significance level과 같지 않고 근사적으로 같다. sample size가 커지면 signifcance level에 수렴함

-Non-Linear Null Hypothesis인 경우(Wald Statistic, one-side)

-가정 Linearity(2), Ergodic Stationary(2), Predetermined Regressors(2), Rank Condition(2), Mgd with invertible second moments(2), Consistent Estimator for second moments of vec{g_i}(2), Null hypothesis:true, Null hypothesis를 C^1 with full row rank로 표현할 수 있다는 가정 필요

-Wald Statistic:cv in distrb to CSD(C^1 function의 row rank)이용

(delta method 이용한 셈이다.)

-Wald Statistic값 구한 다음에는 Chapter 1에서의 절차와 같음(significance level를 결정....)

note)이론 상으로는 n->inf일 때 C^1 with full row rank가 구체적으로 무엇이냐는 상관없지만, 실제로 시행시 n:finite이므로 

C^1 with full row rank를 어떻게 정하냐에 따라 Wald Statistic값이 달라지고 test의 reject여부 결과도 달라진다. 따라서 C^1 with full row rank가 어떤 것인지 확인 필요(같은 hypothesis 내용이라도 function을 어떻게 택하냐도 중요함)

-Section 2.5 Estimating Second Moments of vec{g_i} consistently

-가정 Finite Fourth Moments for Regressors(2)

-같은 sample에서의 임의의 2개(같아도 되는) regressors의 곱의 제곱의 기댓값이 finite임을 가리킴

-Consistent Estimator for Second Moments of vec{g_i}를 가정하지 않고 얻는 데에 필요함

-Consistent Estimator for Second Moments of vec{g_i}얻기

-가정 linearity(2), Ergodic Stationary(2), Finite Fourth Moments for Regressors(2), Consistent Estimator for Coefficients(2)일 때, 일단 Second Moments of vec{g_i}가 finite이기만 하면, consistent estimator for second moments of vec{g_i}를 얻을 수 있다. 

-Test시 power가 1이 아니거나, Null hypothesis:true인데 reject할 확률이 significance level과는 다를 수 있다.

-이런 문제시 Consistent Estimator for Second Moments of vec{g_i}의 조작이 도움될 수 있다.

-Section 2.6 Implications of Conditional Homoskedasticity

-가정 Conditional Homoskedasticity(2)

-E[error_i|regressors_i]=sigma^2 for all i를 가리킴

-Second Moments of vec{g_i}의 형태를 얻음

-가정 Error term in L2(2)가 필요없어짐

-가정 Mgd with invertible second moments(2)과 함께 생각하면 가정 Rank Condition(2)이 필요없어짐

-가정 Linearity(2), Ergodic Stationary(2), Predetermined Regressors(2)와 함께 생각하면 OLS Estimator for error variance가 consistent해짐을 이용해서 Consistent Estimator for second moments of vec{g_i}를 얻으므로 

-가정 Consistent Estimator for second moments of vec{g_i}(2)가 필요없어짐

-가정 Finite Fourth Moments for Regressors(2)가 필요없어짐

-OLS Estimator for Coefficients를 다시 정리

-가정 Linearity(2), Ergodic Stationary(2), Predetermined Regressors(2), Rank Condition(2)일 때

-consistent

-가정 Linearity(2), Ergodic Stationary(2), Rank Condition(2), Mgd with invertible second moments(2)일 

-sqrt(n)*(Estimator - true coefficient vector):cv in distrb to ND

-가정 Linearity(2), Ergodic Stationary(2), Rank Condition(2), Mgd with invertible second moments(2), Consistent Estimator for second moments of ver{g_i}(2)일 때

-Avar(Estimator) 또한 consistently estimated

-가정 Linearity(2), Ergodic Stationary(2), Mgd with invertible second moments(2), Conditional Homoskedasticity(2)일 때

-consistent

-sqrt(n)*(Estimator - true coefficient vector):cv in distrb to ND

-Avar(Estimator) 또한 consistently estimated using OLS Estimator for error variance

-OLS Estimator for error variance를 다시 정리

-가정 Linearity(2), Ergodic Stationary(2), Predetermined Regressors(2), Rank Condition(2), Error Term in L2(2)일 때

-Consistent

-가정 Linearity(2), Ergodic Stationary(2), Mgd with invertible second moments(2), Conditional Homoskedasticity(2)일 때

-Consistent
-Hypothesis Test를 다시 정리
-가정 linearity(1), Strict Exogeneity(1), No Multicollinearity(1), Spherical Error Variance(1), Normality of the error term, Null hypothesis:true란 가정들이 필요
-TD이용
-FD이용
-가정 Linearity(2), Ergodic Stationary(2), Predetermined Regressors(2), Rank Condition(2), Mgd with invertible second moments(2), Consistent Estimator for second moments of vec{g_i}(2), Null hypothesis:true란 가정 필요
-ND이용
-CSD이용
-가정 Linearity(2), Ergodic Stationary(2), Mgd with invertible second moments(2), Conditional Homoskedasticity(2)Null hypothesis:true란 가정 필요(Avar(Estimator)를 using OLS estimator for error variance한 것을 이용시)
-robust t-ratio는 Chapter 1에서의 t-ratio와 numerically same이므로
-Chapter 1에서의 t-ratio:cv in distrb to ND(0,1)을 앎
-TD(n-K):cv in distrbt to ND(0,1)인 것을 이용해
-t-ratio~TD(n-k) without 가정 Strict Exogeneity(1), Normality Error term(1) 사용하기도 한다. 
-Wald Statistic은 Chapter 1에서의 F-ratio와 numerically same이므로
-Chapter 1에서의 (방정식개수)*F-ratio:cv in distrb to CSD(방정식개수)을 앎
-(방정식개수)*FD(방정식개수,n-K):cv in distrb to CSD(방정식개수)인 것을 이용해
-F-ratio~FD(방정식개수,n-K) without 가정 Strict Exogeneity(1), Normality Error term(1) 사용하기도 한다. 
-따라서 Chapter 1에서의 Test(TD,FD이용)대신 Chapter 2에서의 Test(ND, CSD이용)을 적용할 수 있다.
-n이 아주 크고, Chapter 2에서의 Testing가정이 만족된다면
-Chapter 1에서의 가정보다 Chapter 2에서의 가정이 loose하므로 Chapter 2에서의 test적용이 쉽다.
-이 때 몇몇 연구자들은 OLS Estimator for error variance의 분모를 (n-K)대신에 n이용하기도 함
(어차피 n이 아주 클 때 이므로 크게 차이 나지 않음)
-n이 크지않고 작을 때는 ND, CSD말고 원래대로 TD, FD를 이용하기도 한다.

-Section 2.9 Least Squares Projection

-가정 Ergodic and stationary, rank condition만 만족할 때 OLS-estimator for coefficient는 무엇을 estimate하는가?

-regression을 떠나 다음을 생각, 

y:rdv

x:RDV

(y,x):joint distrb를 앎

이 때, x의 값을 통해서 y를 predict하자.

-이 때 Mean Square Error가 최소가 되게하는 x의 function for prediction은 E[y|x]가 된다.

-다음 상황을 생각

y:rdv

x:RDV

(y,x):joint distrb를 앎(사실 결과를 보고나서 생각해보면, joint distrb를 다 알 필요가 없고 moments만 몇개 알면 됨)

이 때, x의 값을 통해서 y를 predict하되, x의 linear form중에서 Mean Square Error가 최소가 되게하는 x의 function은?

-정답은 orthogonality를 통해 유도할 수 있고, 그것을 least squares projection of y on x라 한다. 그리고 coefficients를 least squares projection coefficients라 한다.

-이전의 상황과 다르게, 이 경우는, x의 second moment와 x*y의 moment만 알면 된다.

-x중에 constant가 포함된 경우를, regression에서 주로 쓰게 된다.

-regression에서의 적용

-y:종속변수, x:독립변수(regressor vector), 가정 ergodic and stationary, rank condition을 만족할 때 OLS-estimator for coefficient는 least squares projection coefficients를 estimate하고, consistently하게 된다.


*Chapter 3 Single-Equation GMM

-Abstract

-가정 Predetermined Regressors이 성립하지 않을 때는 GMM을 이용하면 된다.

(이 경우 OLS estimator for coefficient가 consistent하지 않게 된다.)

-linear이고 single-equation만 다룬다. Multiple-equation은 Chapter 4, nonlinear GMM은 Chapter 7

-GMM의 major 대안책인 ML은 Chapter 8에서 다룬다.

-Section 3.1 Endogeneity Bias:Working's Example

-Working's Example 1에서 endogenous regressor by simultaneous equations를 다룸

-Working's Example 2에서 IV가 있으면 endogenous regressor의 coefficient에 대한 consistent estimator를 얻는 방법 소개

-IV estimator

-2SLS Estimator

(둘 다 자세한 것은 GMM 배우고 나서 다시 생각하면 좋다.)

-Section 3.2 More Examples

-Haavelmo's Consumption, GNP, Income Example에서 endogenous regressor by simultaneous equations를 다룸

-M.Friedman's Consumption and Income Example에서 endogenous regressor by measurement error를 다룸

-Production Function Q=A*L*exp(error) Example에서 endogenous regressor by regressor와 관계있는데 error term에 포함된 factor를 다룸

-즉 endogenous 발생요인은 대체로 3가지, simultaneity, measurement error, correlated factor in error

-Section 3.3 The General Formulation

-GMM은 기본적으로 orthogonality condition을 이용하는 것이다.

-몇가지 기본 용어들

-

-Section 3.4 Generalized Method of Moments Defined

-Section 3.5 Large-Sample Properties of GMM

-Section 3.6 Testing Overidentifying Restrictions

-Section 3.7 Hypothesis Testing by the Likelihood-Ratio Principle

-Section 3.8 Implications of Conditional Homoskedasticity



*Chapter 6 Serial Correlation

-Abstract

-error term의 serial correlation이 없을 때만을 Chapter 3 GMM에서 다뤘는데, serial correlation이 있을 때도 다뤄보자.

-그러기 위해선 CLT를 좀 더 일반화시켜야 한다. 그리고 그것은 serial correlation의 정도에 제한이 있으면 된다.

-그게 가능한 process가 linear process가 대표적이다.

-Section 6.1 Modeling Serial Correlation:Linear Processes

-Section 6.2 ARMA Processes

-Section 6.3 Vector Processes(6.1, 6.2, 6.3같이 정리)

-기본적인 process와 techniques(기억이 안나면 "수학정리"참고)

-white noise process, independent white noise process, vector white noise process

-MA(q)

-MA(inf), VMA(inf)

-filter(multivariate)

-p-th degree lag polynomial

-abs summable filter

-filter of convolution

-commutativity(multivariate에선 성립안함)

-inverse

-stability condition(multivariate filter의 경우, det로 stability condition가짐)

-AR(p), M-VAR(p)

-random walk with dirft c

-MA(inf) Representation

-ARMA(p,q), VARMA(p,q)

-with common root

-invertible

-Autocovariance-Generating Function of covariance-stationary process

-Review questions

-6.1-1번:cauchy seq<->cv seq in series version

-6.1-2번:covariance-stationary process에 abs summable filter를 씌워서 얻은 새로운 covariance-stationary process의 autocovariance가 어떻게 얻어지는지 이해

-6.1-3번:filter operation의 성질(쉬움)

-6.1-4번, 5번, 6번:단순계산, 확인 문제

-6.2-1번:

-AR(1) with stability condition에서 least square projection of y_t on {1,y_(t-1)}의 형태

-least square projection이 E[y_t|y_(t-1)]과는 다름을 알 수 있다.(주의:E[error_t|y_(t-1)]이 non zero일 수 있음)

-least square projection of y_t on {1,y_(t-1),y_(t-2)} 또한 least square projection of y_t on {1,y_(t-1)}와 같다.

-AR(1) without stability condition에서는 위의 성질들 다 성립 안함

-6.2-2번:AR(1) with coefficient=1은 covariance-stationary solution이 존재하지 않음을 보임

-6.2-3번:AR(p) with stability condition에서 mean구하는 법 증명

-6.2-4번:ARMA(p,q) with stability condition의 solution 형태와 solution임을 확인하기

-6.2-5번:AR(p) with stability condition->MA(inf), ARMA(p,q) with stability condition->MA(inf)표현 연습

-6.2-6번:Autocovariance-Generating Function of covariance-stationary process의 property확인

(covariance-stationary->covariance-stationary using abs summable filter했을 때 autocovariance-generating function의 변화 확인)

-6.2-7번:Autocovariance-Generating Function of covariance-stationary process의 spectrum이 real임을 보이기

-Section 6.4 Estimating Autoregressions

-Estimating of AR(p) with independent WN, stability condition

-regression form으로 만든다면 다음 가정 6개를 만족한다.

-linearity in Chapter 2

-Joint Stationary and Ergodic in Chapter 2

-Conditionally homoskedasticity in Chapter 2

-Mgd with finite second moment in Chapter 2

-Predetermined Regressors in Chapter 2

-Rank condition in Chapter 2

-따라서 다음 결과를 얻을 수 있다. (Using Chapter2 내용)

-OLS-estimator for coefficient는 CAN

-OLS-estimator for coefficient의 Avar의 consistent estimator찾을 수 있다.

-error variance의 consistent OLS-Estimator를 찾을 수 있다.

-Choice of Lag Length

-"Estimating of AR(p) with..."를 할 때 p를 알아야 한다.

-일단 p에 대해서 된다면

-r<p에 대해서도 stability condition 만족하고 phi_r:nonzero이면, 같은 논의를 똑같이 적용가능

-일단 true order가 p라하고, 현재 아는게 p는 몰라도 p_max는 안다.

-Two classes of rules for determining the lag length

-General-to-specific sequential t rule

-일단 p_max로 먼저해보고 prespecified significance level에서 significant하면 p_max로 choice

(Estimating of AR(p)는 결국 chapter2의 내용이므로 regression의 계수 가설검증과도 같다. T-test사용)

-not significant하면 p_max - 1로해본다.

-significant할 때까지하고 해지면 그걸로 choice

(구체적으로 만약 true=3, max=5라면, 

-max에서의 t-test with null:phi_5=0(null이 실제론 참인 상황)

-null이 참인데 기각할 확률은 10%, 즉 5로 choice할 확률이 10%

-null이 참인데 기각하지 않을 확률은 90%

-max-1(4)에서의 t-test with null:phi_4=0(null이 실제론 참인 상황)

-null이 참인데 기각할 확률은 10%, 즉 4로 choice할 확률은 90%*10%

-null이 참인데 기각하지 않을 확률은 90%

-true(3)에서의 t-test with null:phi_3=0(null이 실제론 거짓인 상황)

-t-value는 무조건 크게 나옴, 따라서 반드시 기각함, 즉 3으로 choice할 확률은 90%*90%

-결론, P[choice:5]=0.1, P[choice:4]=0.09, P[choice:3]=0.81

-특징:

-lim n->inf P[choice된 것<true]=0 and lim n->inf P[choice된 것>true]>0

(즉 true order보다 작게 choice할 일은 없고, 크게 choice할 가능성은 적게 있다.)

-test할 sample의 period를 택하는 방법에는

-y_(p_max+1),...,y_n을 이용하거나(test 횟수가 늘어나도 고정)

-y_(j+1),...,y_n을 이용(j는 test 횟수마다 작아지게)

*Chapter 7 Extremum Estimator

-Abstract

-Extremum Estimator는 GMM, ML, least square 등의 Estimator를 일반화한 개념

-asymptotic theory with calculus가 다수 사용됨

-Section 7.1 Extremum Estimators

-terminology

-parameter space

-objective function

-extremum estimator

-parametric model

-correctly specified model

-likelihood function

-log likelihood function

-Extremum Estimator의 존재성을 보장하는 조건3가지

-parameter space가 compact

-objective function이 conti in parameter

-objective function이 MF in data

(parameter space가 compact인 가정을 피하고 싶은 가정)

-Class of Extremum Estimator

-기준:objective function의 형태

-M-estimator

-sample average형태의 objective function

-ML이나 NLS 등이 포함됨

-ML

-model:data가 iid이고 data의 density 또한 가정 indexed by finite dimensional parameter vector

-방법:log likelihood function의 sample mean을 objective function으로 선택

-remark

-data가 serially correlated라면, log likelihood의 sample mean이 simpel하지 않음(chapter 8에서 다룸)

-같은 model에서도 꼭 ML을 써야하는 것은 아니고 GMM으로도 할 수 있음

-CML(Conditional Maximum Likelihood)

-model:

-data가 한부분은 종속변수(y_t, vector일수도) 한부분은 regressors(x_t, column vector)

-data의 density의 indexing parameter vector도 x_t부분과 conditional y_t on x_t부분 2개로 나뉘어짐

-연구자의 관심:x_t가 conditional distrb of y_t on x_t에 얼만큼 영향을 미치는 지에 관심

-x_t의 density의 parameter vector가 conditional distrb of y_t on x_t의 parameter와는 아무 functional relation이 없음->따라서 data의 density가 2개의 densities(x_t의 density * conditional distrb of y_t on x_t)

-방법:conditional distrb of y_t on x_t의 log likelihood function의 sample mean을 obejective function으로 선택

(즉 x_t의 parameter vector는 관심없고(왜냐하면 x_t를 알 때에 y_t가 관심이므로), conditional y_t on x_t의 parameter vector만 관심)

-remark

-만약 x_t의 parameter vector와 conditional y_t on x_t의 parameter vector가 functionally relation을 갖는다면, CML과 ML의 결과가 다르고, functionally relation이 없다면, CML=ML(y_t의 parameter vector의 estimator의 값이 같다는 것)

-functionally relation을 갖는다면, ML의 결과가 더 efficient

-일반적으로, x_t의 density의 parametric form에 관한 정보가 없으므로, 사실상 CML을 쓸 때의 이러한 efficiency loss가 거의 항상 있다.



-GMM

-(-1) * distance 형태의 objective function

(따라서 objective function을 maximize<->distance를 minimize)

(M-estimator나 GMM에 포함되지 않는 extremum estimator도 존재, 특히 classical minimum distance estimators)




*Examples

1. Consumption function, Consumption과 disposable income사이의 관계

-consumption은 i년도 총 소비량 혹은 개인 i의 기간내 총 소비량

-disposable income은 i년도 혹은 개인 i의 기간내 disposable income

-error term은 measure할 수 있지만 관심이 없는 요소거나(Financial assets같은), hard to measure인 경우이면서 consumption에 영향을 주는 요소들

2. Wage Equation 1

-wage는 개인 i의 wage rate, 

-S는 education in years, 개인 i의 총 교육년수

-Tenure는 years on the current job, 개인 i의 현재직장 경력

-Expr는 experience in the labor force, 개인 i의 총 노동경력

-F-test예로는 S와 tenure의 계수는 같고, Expr의 계수는 0이라고 hypothesis할만 함.


~. Working's Example 1

-q_i^(d)는 i기간동안 coffee의 수요량

-q_i^(s)는 i기간동안 coffee의 공급량

-p_i는 i기간동안 coffee의 가격

-u_i는 demand function의 error term

-v_i는 supply function의 error term

-market equilibrium존재

-Endogenous regressor의 발생요인이 simultaneous equations때문인 예

~. Working's Example 2

-q_i^(d)는 i기간동안 coffee의 수요량

-q_i^(s)는 i기간동안 coffee의 공급량

-p_i는 i기간동안 coffee의 가격

-u_i는 demand function의 error term

-x_i는 observable supply shifter 

-eta_i는 supply function의 새로운 error term

-Endogenous Regressor가 있더라도 IV가 존재해서 IV Estimator for coefficient만드는 예

-Endogenous REgressor가 있더라도 IV가 존재해서 2SLS Estimator for coefficient만드는 예

~. Haavelmo's Consumption, GNP, Income Example

-C_i:aggregate consumption in year i

-Y_i:GNP in year i

-I_i:Income in year i

-u_i:error term in consumption function

-Endogenous regressor by simultaneous equations가 바로 이해되는 예

~. M.Friedman's Consumption and Income

-C^*_i:permanent consumption in year i

-Y^*_i:permanent income in year i

-measurement error때문에 endogenous가 발생하는 예

~. Production Function Q=A*L*exp(error)

-Q_i:ith firm's output 

-L_i:ith firm's labor input

-A_i:ith firm's efficiency level

-v_i:ith firm's technology shock

-regressor와 correlated한데 unobservable(for econometrician)이어서 error term에 들어간 factor때문에 endogenous 발생하는 예

~. Wage Equations 2

-LW_i는 개인 i 의 log wage

-S_i는 education in years, 개인 i의 총 교육년수

-Expr_i는 experience in the labor force, 개인 i의 총 노동경력

-IQ_i는 개인 i의 IQ

-AGE_i는 개인 i의 나이

-MED_i는 개인 i의 엄마의 교육년수



~. Estimating the mean of a normal distribution

-model:data가 scalar iid이고 각 data의 density~ND(mu, sigma^2)

-ML의 경우 sample mean이 ML estimator for mu

-GMM의 경우도 sample mean이 GMM estimator for mu


~+1. Linear regression model with normal errors

-model:data={y_t,x_t}:iid, linearity, error는 conditional normal on x_t

-위의 model 가정에 의해 conditional y_t on x_t의 parameter vector={regression의 coefficients vector, error의 variance}

-CML estimator for regression의 coefficients는 OLS-estiamtor가 된다.

-CML estimator for error의 variance는 SSR/n이 된다.(SSR/(n-K)가 아님)




























1. Notation

-indexing은 i,j는 observation, k는 IV, l은 regressors,(multiple GMM까진 해야 더 정교하게할듯)

2. Assumptions(넘버링 필요)

-Basic

-Data관련

-

-E관련

-conditional E관련

-Error관련

-

-E관련

-conditional E관련

-Data랑 Error함께 관련

-

-E관련

-conditional E관련

3. Assumptions의 포함관계

4. 관련 수학적 Thm을 쉽게 언급하고 Notation만들기(그래야 이후 설명시 쉽게 적어보인다. ESMC:Ergodic stationary mgd CLT 등)

-적되, 수학정리에도 같이 적어야할 것이다.

-수학정리에는 증명도 실어야할 것이다.

5. Chapter별 결론(각 결론 뒤에는 사용된 방법론, 쓰인 가정을 적는다. 이후 다른 가정일 때도 성립하면 그것도 적는다.)

-Chapter1(쓰이는, 언급된 가정들을 Chapter1(~~~), ~~에 적기)

-Coefficient Estimator

-OLS Estimator

-쓰인 가정:

-추가된 가정에선~~

-Error Variance Estimator

-Hypothesis Testing

-부가 Testing

-기타

+ Recent posts