Учебник+

Приложение 6.А. Состоятельная в условиях гетероскедастичности стандартная ошибка оценки коэффициента: доказательство состоятельности

В параграфе 6.4 мы доказали, что асимптотическая дисперсия оценки коэффициента в модели парной регрессии равна:

\begin{equation*} \mathit{var}\left(\widehat {\beta _2}\right)=\frac{\mathit{var}\left(\left(x_i-\mu _x\right)\varepsilon _i\right)}{n\ast \left(\mathit{var}\left(x_i\right)\right)^2}. \end{equation*}

Поскольку в рамках нашей модели мы допускаем наличие гетероскедастичности, оценка этой дисперсии должна быть состоятельной в условиях гетероскедастичности (робастной к гетероскедастичности).

Такая оценка может быть вычислена по формуле:

\begin{equation*} \widehat {\mathit{var}}\left(\widehat {\beta _2}\right)=\frac 1 n\frac{\frac 1{n-2}\sum _{i=1}^n\left(x_i-\overline x\right)^2e_i^2}{\widehat {\mathit{var}}\left(x\right)^2} \end{equation*}

Если извлечь корень из оценки дисперсии \(\widehat {\beta _2}\), то мы получим состоятельную в условиях гетероскедастичности стандартную ошибку оценки коэффициента:

\begin{equation*} \mathit{se}\left(\widehat {\beta _2}\right)=\sqrt{\widehat {\mathit{var}}\left(\widehat {\beta _2}\right)}=\sqrt{\frac 1 n\frac{\frac 1{n-2}\sum _{i=1}^n\left(x_i-\overline x\right)^2e_i^2}{\widehat {\mathit{var}}\left(x\right)^2}.} \end{equation*}

Именно эта стандартная ошибка уже встречалась вам в параграфе 5.2 главы про гетероскедастичность. Теперь мы знаем достаточно для того, чтобы доказать её состоятельность.

Для этого мы докажем, что отношение оценки дисперсии \(\widehat {\mathit{var}}\left(\widehat {\beta _2}\right)\) к истинной теоретической дисперсии \(\mathit{var}\left(\widehat {\beta _2}\right)\) сходится по вероятности к единице:

\begin{equation*} \frac{\text{ }\text{ }\text{ }\text{ }\frac 1 n\frac{\frac 1{n-2}\sum _{i=1}^n\left(x_i-\overline x\right)^2e_i^2}{\widehat {\mathit{var}}\left(x\right)^2}\text{ }\text{ }\text{ }\text{ }}{\frac{\mathit{var}\left(\left(x_i-\mu _x\right)\varepsilon _i\right)}{n\ast \left(\mathit{var}\left(x_i\right)\right)^2}}\text{ }\text{ }\underset{\rightarrow }{\text{ }\text{ }\text{ }p\text{ }\text{ }\text{ }}\text{ }\text{ }1 \end{equation*}

Перепишем указанную дробь следующим образом:

\begin{equation*} \frac{\text{ }\text{ }\text{ }\text{ }\frac 1 n\frac{\frac 1{n-2}\sum _{i=1}^n\left(x_i-\overline x\right)^2e_i^2}{\widehat {\mathit{var}}\left(x\right)^2}\text{ }\text{ }\text{ }\text{ }}{\frac{\mathit{var}\left(\left(x_i-\mu _x\right)\varepsilon _i\right)}{n\ast \left(\mathit{var}\left(x_i\right)\right)^2}}=\frac{\frac n{n-2}\ast \left(\frac{\mathit{var}\left(x_i\right)}{\widehat {\mathit{var}}\left(x\right)}\right)^2\ast \frac 1 n\sum _{i=1}^n\left(x_i-\overline x\right)^2e_i^2}{\mathit{var}\left(\left(x_i-\mu _x\right)\varepsilon _i\right)}\text{ } \end{equation*}

Первый множитель представляет собой неслучайную величину, которая сходится к 1.

Второй множитель сходится по вероятности к 1, так как выборочная дисперсия регрессора сходится к теоретической (см. параграф 6.2).

Осталось доказать, что третий множитель тоже сходится к 1. Рассмотрим его подробнее.

\begin{equation*} \frac{\frac 1 n\sum _{i=1}^n\left(x_i-\overline x\right)^2e_i^2}{\mathit{var}\left(\left(x_i-\mu _x\right)\varepsilon _i\right)}=\text{ }\frac{\frac 1 n\sum _{i=1}^n\left(x_i-\overline x\right)^2e_i^2}{E\left(\left(x_i-\mu _x\right)^2\varepsilon _i^2\right)} \end{equation*}

Чтобы доказать, что эта дробь сходится по вероятности к единице, достаточно доказать, что

\begin{equation*} \frac 1 n\sum _{i=1}^n\left(x_i-\overline x\right)^2e_i^2-E\left(\left(x_i-\mu _x\right)^2\varepsilon _i^2\right)\underset{\rightarrow }{p}0 \end{equation*}

Сделаем это в два шага:

Шаг 1. Докажем, что \(\frac 1 n\sum _{i=1}^n\left(x_i-\mu _x\right)^2\varepsilon _i^2\underset{\rightarrow }{p}E\left(\left(x_i-\mu _x\right)^2\varepsilon _i^2\right)\)

Шаг 2. Докажем, что \(\frac 1 n\sum _{i=1}^n\left(x_i-\overline x\right)^2e_i^2-\frac 1 n\sum _{i=1}^n\left(x_i-\mu _x\right)^2\varepsilon _i^2\underset{\rightarrow }{p}0\)

Краткое описание каждого из двух указанных шагов приводится ниже.

Шаг 1. Сделаем дополнительную предпосылку:

\begin{equation*} E\left(x_i^8\right)< \infty ,E\left(\varepsilon _i^8\right)< \infty \end{equation*}

Докажем, что \(v_i=\left(x_i-\mu _x\right)^2\varepsilon _i^2\) удовлетворяют предпосылкам закона больших чисел. Для этого нужно доказать, что \(\mathit{var}\left(v_i\right)< \infty .\)

\begin{equation*} \mathit{var}\left(v_i\right)=E\left(\left(x_i-\mu _x\right)^2\varepsilon _i^2\right)^2=E\left(\left(x_i-\mu _x\right)^4\varepsilon _i^4\right){\leq}\sqrt{E\left(x_i-\mu _x\right)^8\ast E\varepsilon _i^8}< \infty \end{equation*}

Здесь предпоследнее неравенство следует из неравенства Коши-Буняковского, а последнее — из сформулированной нами дополнительной предпосылки.

Следовательно, случайная величина \(v_i\) имеет конечный второй начальный момент распределения, который в данном случае равен дисперсии. Значит, она имеет конечный первый момент распределения, то есть матожидание. Тогда все требования закона больших чисел выполнены. В соответствии с ним, получаем, что:

\begin{equation*} \frac 1 n\sum _{i=1}^n\left(x_i-\mu _x\right)^2\varepsilon _i^2\underset{\rightarrow }{p}E\left(\left(x_i-\mu _x\right)^2\varepsilon _i^2\right) \end{equation*}

Шаг 2. В рамках второго шага представим анализируемое выражение следующим образом:

\begin{equation*} \frac 1 n\sum _{i=1}^n\left(x_i-\overline x\right)^2e_i^2-\frac 1 n\sum _{i=1}^n\left(x_i-\mu _x\right)^2\varepsilon _i^2= \end{equation*}

\begin{equation*} =\frac 1 n\sum _{i=1}^n\left(\left(x_i-\overline x\right)^2e_i^2-\left(x_i-\mu _x\right)^2\varepsilon _i^2\right)= \end{equation*}

\begin{equation*} =\frac 1 n\sum _{i=1}^n\left(\left(x_i-\overline x\right)^2\left(\beta _1+\beta _2x_i+\varepsilon _i-\widehat {\beta _1}-\widehat {\beta _2}x_i\right)^2-\left(x_i-\mu _x\right)^2\varepsilon _i^2\right) \end{equation*}

Далее достаточно раскрыть скобки, привести подобные и представить это выражение в виде суммы слагаемых, каждое из которых по теореме Слуцкого сходится к нулю. Для доказательства сходимости к нулю каждого из слагаемых достаточно будет снова применить теорему Слуцкого и неравенство Коши-Буняковского.