SOLUÇÃO MATRICIAL PARA UM SISTEMA LINEAR

 

Consideremos o seguinte sistema linear:

 y_1 = a + b_1 x_{11} + b_2 x_{12} + \ldots + b_k x_{1p} \\  y_2 = a + b_1 x_{21} + b_2 x_{22} + \ldots + b_k x_{2p} \\  y_3 = a + b_1 x_{31} + b_2 x_{32} + \ldots + b_k x_{3p} \\  \ldots \\  y_n = a + b_1 x_{n1} + b_2 x_{n2} + \ldots + b_k x_{np}

 

A notação matricial do sistema linear apresentado acima é:

 

 \textbf{y} = \begin{bmatrix} y_1 \\ y_2 \\ y_3 \\ \vdots \\ y_n \end{bmatrix} \qquad \textbf{X} = \begin{bmatrix}  1 & x_{11} & x_{12} & x_{13} & \ldots & x_{1p} \\  1 & x_{21} & x_{22} & x_{23} & \ldots & x_{2p} \\  1 & x_{31} & x_{32} & x_{33} & \ldots & x_{3p} \\  \vdots  & \vdots & \vdots & \vdots & \ddots & \vdots \\  1 & x_{n1} & x_{n2} & x_{n3} & \ldots & x_{np} \\ \end{bmatrix} \qquad  \qquad  \textbf{b}  = \begin{bmatrix}  a  \\ b_1 \\ b_2 \\ \vdots \\ b_p \end{bmatrix}

 

Conforme Charnet (2008, p. 175), o vetor  \textbf{y - Xb} é composto pelas diferenças entre cada valor de y e o correspondente valor dado por uma função, ou seja:

 \begin{bmatrix} y_1 \\ y_2 \\ y_3 \\ \vdots \\ y_n \end{bmatrix} - \begin{bmatrix}  1 & x_{11} & x_{12} & x_{13} & \ldots & x_{1p} \\  1 & x_{21} & x_{22} & x_{23} & \ldots & x_{2p} \\  1 & x_{31} & x_{32} & x_{33} & \ldots & x_{3p} \\  \vdots  & \vdots & \vdots & \vdots & \ddots & \vdots \\  1 & x_{n1} & x_{n2} & x_{n3} & \ldots & x_{np} \\ \end{bmatrix} \begin{bmatrix}  a \\ b_1 \\ b_2 \\ \vdots \\ b_p \end{bmatrix}  \qquad    =    \qquad \begin{bmatrix} y_1 - \left( a + b_1 x_{11} + b_2 x_{12} + \ldots + b_p x_{1p} \right) \\ y_2 - \left( a + b_1 x_{21} + b_2 x_{22} + \ldots + b_p x_{2p} \right) \\ y_3 - \left(  a + b_1 x_{31} + b_2 x_{32} + \ldots + b_p x_{3p} \right) \\ \vdots \\ y_n - \left( a + b_1 x_{n1} + b_2 x_{n2} + \ldots + b_p x_{np} \right) \end{bmatrix} .

 

(1)    \begin{align*} \sum_{i=1}^n \left[ y_i - \left( a + b_1 x_{i1} + b_2 x_{i2} + \ldots + b_p x_{ip}\right)\right]^2 & = \left( y - Xb\right)'\left( y - Xb\right) \\ &= \left( y' - b'X'\right)\left( y - Xb\right) \\ &= y'y - y'Xb - b'X'y + b'X'Xb \end{align*}

 

Derivando, simultaneamente, em termos de b, temos:

(2)    \begin{align*} \dfrac{\partial y'y}{\partial b} - 2 \dfrac{\partial y'Xb}{\partial b} + \dfrac{\partial b'X'Xb}{\partial b} &= 0 - 2 \left( y'X \right)' + 2X'Xb \\ &= - 2 \left( X'y \right) + 2X'Xb \end{align*}

 

Denominando por  \hat{b} o vetor que anula a derivada, podemos escrever:

(3)    \begin{align*} - 2 \left( X'y \right)' + 2X'X \hat{b} &= 0  \\ \Rightarrow X'X \hat{b} &= X'y \\ \Rightarrow \left( X'X \right)^{-1}X'X \hat{b} &= \left( X'X \right)^{-1}X'y \\ \Rightarrow \hat{b} &= \left( X'X \right)^{-1} X'y \end{align*}

 

Portanto, supondo que a matriz  X'X seja inversível, temos:

 \left( X'X \right)^{-1} X'y = \hat{b}

 

Onde  \hat{\beta} são os estimadores de quadrados mínimos; na regressão linear, esses são os coeficientes calculados associados a cada uma das k variáveis independentes, com o acréscimo do valor constante. Esses serão os resultados para a solução dos sistema linear, ou a melhor aproximação existente (LUNA; OLINDA, 2014, p. 64).

O erro padrão dos respectivos coeficientes regressores são calculados a partir dos elementos da diagonal principal da matriz  (X'X)^{-1}

Portanto, os elementos da diagonal principal da matriz    \begin{bmatrix} \mathbf{c_{00}} & c_{01} & c_{02} \\ c_{10} & \mathbf{c_{11}} & c_{12} \\c_{20} & c_{21} & \mathbf{c_{22}}  \end{bmatrix}    são:  c_{00}, c_{01}, c_{02} .

Então, calcula-se o desvio padrão estimado para cada um dos coeficientes regressores:

 sd(b_o) = s_e \sqrt{c_{00}}

 sd(b_1) = s_e \sqrt{c_{11}}

 sd(b_2) = s_e \sqrt{c_{22}}

 

Sendo:

 s_e = erro\ padrão\ da\ regressão\ \qquad \therefore \qquad \sqrt{\dfrac{y'y - y'Py}{n - p - 1}}

 n = tamanho\ da\ amostra

 p = número\ de\ variáveis\ regressoras

 

 

 

 

Fontes:
CASELLA, George; BERGER, Roger L. Inferência estatística. Tradução de Solange Aparecida Visconte. São Paulo: Cengage Learning, 2018.
CHARNET, Reinaldo; FREIRE, Clarice Azevedo de Luna; CHARNET, Eugênia M. Reginato; BONVINO, Heloísa.  Análise de modelos de regressão linear: com aplicações. 2. ed. Campinas,SP: Editora da Unicamp, 2008.
GUJARATI, Damodar N. Econometria básica. Tradução de Maria José Cyhlar Monteiro. Rio de Janeiro: Elsevier, 2006.
LATTIN, James; CARROLL, J. Douglas; GREEN, Paul E. Análise de dados multivariados. Tradução de Harue Avritscher. São Paulo: Cengage Learning, 2011.
LUNA, João Gil; OLINDA, Ricardo Alves. Introdução a modelos lineares. Campina Grande: EDUEPB, 2014.
NASSER JÚNIOR, Radegas. Avaliação de bens: princípios básicos e aplicações. São Paulo: Editora Leud, 2019.
PINDYCK, Robert S.; RUBINFELD, Daniel L. Econometria: modelos e previsões. Rio de Janeiro: Elsevier, 2004.
WOOLDRIDGE, Jeffrey M. Introdução à econometria: uma abordagem moderna. Tradução da 6ª edição norte-americana. Tradução de Priscilla Rodrigues da Silva Lopes e Livia Marina Koeppl.