Regresiones aparentemente no relacionadas

En econometría , el modelo de regresiones aparentemente no relacionadas ( SUR ) [1] : 306  [2] : 279  [3] : 332  o ecuaciones de regresión aparentemente no relacionadas ( SURE ) [4] [5] : 2  , propuesto por Arnold Zellner en (1962), es una generalización de un modelo de regresión lineal que consta de varias ecuaciones de regresión, cada una con su propia variable dependiente y conjuntos potencialmente diferentes de variables explicativas exógenas. Cada ecuación es una regresión lineal válida por sí misma y puede estimarse por separado, por lo que el sistema se denomina aparentemente no relacionado , [3] : 332  aunque algunos autores sugieren que el término aparentemente relacionado sería más apropiado, [1] : 306  ya que se supone que los términos de error están correlacionados a través de las ecuaciones.

El modelo se puede estimar ecuación por ecuación utilizando mínimos cuadrados ordinarios (MCO) estándar. Estas estimaciones son consistentes , pero generalmente no tan eficientes como el método SUR, que equivale a mínimos cuadrados generalizados factibles con una forma específica de la matriz de varianza-covarianza. Dos casos importantes en los que SUR es de hecho equivalente a MCO son cuando los términos de error de hecho no están correlacionados entre las ecuaciones (de modo que realmente no están relacionados) y cuando cada ecuación contiene exactamente el mismo conjunto de regresores en el lado derecho.

El modelo SUR puede considerarse como la simplificación del modelo lineal general, en el que ciertos coeficientes de la matriz se limitan a ser iguales a cero, o como la generalización del modelo lineal general , en el que se permite que los regresores del lado derecho sean diferentes en cada ecuación. El modelo SUR se puede generalizar aún más al modelo de ecuaciones simultáneas , en el que se permite que los regresores del lado derecho también sean las variables endógenas. B {\displaystyle \mathrm {B}}

El modelo

Supongamos que hay m ecuaciones de regresión

y i a = incógnita i a yo β i + mi i a , i = 1 , , metro . {\displaystyle y_{ir}=x_{ir}^{\mathsf {T}}\;\!\beta _{i}+\varepsilon _{ir},\quad i=1,\ldots ,m.}

Aquí i representa el número de ecuación, r = 1, …, R es la observación individual y tomamos la transpuesta del vector columna. Se supone que el número de observaciones R es grande, de modo que en el análisis tomamos R , mientras que el número de ecuaciones m permanece fijo. incógnita i a estilo de visualización x_{ir}} {\estilo de visualización\infty}

Cada ecuación i tiene una única variable de respuesta y ir y un vector k i -dimensional de regresores x ir . Si apilamos las observaciones correspondientes a la ecuación i -ésima en vectores y matrices R -dimensionales, entonces el modelo puede escribirse en forma vectorial como

y i = incógnita i β i + mi i , i = 1 , , metro , {\displaystyle y_{i}=X_{i}\beta _{i}+\varepsilon _{i},\quad i=1,\ldots ,m,}

donde y i y ε i son vectores R ×1, X i es una matriz R × k i y β i es un vector k i ×1.

Finalmente, si apilamos estas m ecuaciones vectoriales una encima de otra, el sistema tomará la forma [4] : ecuación (2.2) 

( y 1 y 2 y metro ) = ( incógnita 1 0 0 0 incógnita 2 0 0 0 incógnita metro ) ( β 1 β 2 β metro ) + ( mi 1 mi 2 mi metro ) = incógnita β + mi . {\displaystyle {\begin{pmatrix}y_{1}\\y_{2}\\\vdots \\y_{m}\end{pmatrix}}={\begin{pmatrix}X_{1}&0&\ldots &0\\0&X_{2}&\ldots &0\\\vdots &\vdots &\ddots &\vdots \\0&0&\ldots &X_{m}\end{pmatrix}}{\begin{pmatrix}\beta _{1}\\\beta _{2}\\\vdots \\\beta _{m}\end{pmatrix}}+{\begin{pmatrix}\varepsilon _{1}\\\varepsilon _{2}\\\vdots \\\varepsilon _{m}\end{pmatrix}}=X\beta +\varepsilon \,.} ( 1 )

El supuesto del modelo es que los términos de error ε ir son independientes entre observaciones, pero pueden tener correlaciones entre ecuaciones dentro de las observaciones. Por lo tanto, suponemos que E[ ε ir ε es | X ] = 0 siempre que r ≠ s , mientras que E[ ε ir ε jr | X ] = σ ij . Denotando Σ = [ σ ij ] la matriz de cedasticidad m×m de cada observación, la matriz de covarianza de los términos de error apilados ε será igual a [4] : ecuación (2.4)  [3] : 332 

Ω E [ ε ε T | X ] = Σ I R , {\displaystyle \Omega \equiv \operatorname {E} [\,\varepsilon \varepsilon ^{\mathsf {T}}\,|X\,]=\Sigma \otimes I_{R},}

donde IR es la matriz identidad R -dimensional y ⊗ denota el producto matricial de Kronecker .

Estimación

El modelo SUR se estima generalmente mediante el método de mínimos cuadrados generalizados factibles (FGLS). Este es un método de dos pasos donde en el primer paso ejecutamos una regresión de mínimos cuadrados ordinarios para ( 1 ). Los residuos de esta regresión se utilizan para estimar los elementos de la matriz : [6] : 198  Σ {\displaystyle \Sigma }

σ ^ i j = 1 R ε ^ i T ε ^ j . {\displaystyle {\hat {\sigma }}_{ij}={\frac {1}{R}}\,{\hat {\varepsilon }}_{i}^{\mathsf {T}}{\hat {\varepsilon }}_{j}.}

En el segundo paso ejecutamos una regresión de mínimos cuadrados generalizada para ( 1 ) utilizando la matriz de varianza : Ω ^ = Σ ^ I R {\displaystyle \scriptstyle {\hat {\Omega }}\;=\;{\hat {\Sigma }}\,\otimes \,I_{R}}

β ^ = ( X T ( Σ ^ 1 I R ) X ) 1 X T ( Σ ^ 1 I R ) y . {\displaystyle {\hat {\beta }}={\Big (}X^{\mathsf {T}}({\hat {\Sigma }}^{-1}\otimes I_{R})X{\Big )}^{\!-1}X^{\mathsf {T}}({\hat {\Sigma }}^{-1}\otimes I_{R})\,y.}

Este estimador es imparcial en muestras pequeñas asumiendo que los términos de error ε ir tienen una distribución simétrica; en muestras grandes es consistente y asintóticamente normal con una distribución límite [6] : 198 

R ( β ^ β )   d   N ( 0 , ( 1 R X T ( Σ 1 I R ) X ) 1 ) . {\displaystyle {\sqrt {R}}({\hat {\beta }}-\beta )\ {\xrightarrow {d}}\ {\mathcal {N}}{\Big (}\,0,\;{\Big (}{\tfrac {1}{R}}X^{\mathsf {T}}(\Sigma ^{-1}\otimes I_{R})X{\Big )}^{\!-1}\,{\Big )}.}

Se han sugerido otras técnicas de estimación además de FGLS para el modelo SUR: [7] el método de máxima verosimilitud (ML) bajo el supuesto de que los errores se distribuyen normalmente; los mínimos cuadrados generalizados iterativos (IGLS), donde los residuos del segundo paso de FGLS se utilizan para recalcular la matriz , luego se estima nuevamente utilizando GLS, y así sucesivamente, hasta que se logra la convergencia; el esquema iterativo de mínimos cuadrados ordinarios (IOLS), donde la estimación se realiza ecuación por ecuación, pero cada ecuación incluye como regresores adicionales los residuos de las ecuaciones estimadas previamente para tener en cuenta las correlaciones entre ecuaciones, la estimación se ejecuta iterativamente hasta que se logra la convergencia. Kmenta y Gilbert (1968) realizaron un estudio de Monte Carlo y establecieron que los tres métodos (IGLS, IOLS y ML) arrojan resultados numéricamente equivalentes. También encontraron que la distribución asintótica de estos estimadores es la misma que la distribución del estimador FGLS, mientras que en muestras pequeñas ninguno de los estimadores fue más superior que los otros. [8] Zellner y Ando (2010) desarrollaron un método directo de Monte Carlo para el análisis bayesiano del modelo SUR. [9] Σ ^ {\displaystyle \scriptstyle {\hat {\Sigma }}} β ^ {\displaystyle \scriptstyle {\hat {\beta }}}

Equivalencia con MCO

Hay dos casos importantes en los que las estimaciones SUR resultan equivalentes a las MCO ecuación por ecuación. Estos casos son:

  1. Cuando se sabe que la matriz Σ es diagonal, es decir, no existen correlaciones entre ecuaciones entre los términos de error, el sistema deja de estar aparentemente relacionado, pero sí lo está realmente.
  2. Cuando cada ecuación contiene exactamente el mismo conjunto de regresores, es decir X 1 = X 2 = … = X m . Que las estimaciones resulten numéricamente idénticas a las estimaciones MCO se desprende del teorema del árbol de Kruskal , [1] : 313  o puede demostrarse mediante el cálculo directo. [6] : 197 

Paquetes estadísticos

  • En R , SUR se puede estimar utilizando el paquete “systemfit”. [10] [11] [12] [13]
  • En SAS , SUR se puede estimar utilizando el syslinprocedimiento. [14]
  • En Stata , SUR se puede estimar utilizando los comandos suregy . [15] [16] [17]suest
  • En Limdep , SUR se puede estimar utilizando el surecomando [18]
  • En Python , SUR se puede estimar utilizando el comando SURen el paquete “linearmodels”. [19]
  • En gretl , SUR se puede estimar usando el systemcomando.

Véase también

Referencias

  1. ^ abc Davidson, Russell; MacKinnon, James G. (1993). Estimación e inferencia en econometría . Oxford University Press. ISBN 978-0-19-506011-9.
  2. ^ Hayashi, Fumio (2000). Econometría. Princeton University Press. ISBN 978-0-691-01018-2.
  3. ^ abc Greene, William H. (2012). Análisis econométrico (séptima edición). Upper Saddle River: Pearson Prentice-Hall. págs. 332–344. ISBN 978-0-273-75356-8.
  4. ^ abc Zellner, Arnold (1962). "Un método eficiente para estimar ecuaciones de regresión aparentemente no relacionadas y pruebas de sesgo de agregación". Journal of the American Statistical Association . 57 (298): 348–368. doi :10.2307/2281644. JSTOR  2281644.
  5. ^ Srivastava, Virendra K.; Giles, David EA (1987). Modelos de ecuaciones de regresión aparentemente no relacionados: estimación e inferencia . Nueva York: Marcel Dekker. ISBN 978-0-8247-7610-7.
  6. ^ abc Amemiya, Takeshi (1985). Econometría avanzada . Cambridge, Massachusetts: Harvard University Press. pág. 197. ISBN 978-0-674-00560-0.
  7. ^ Srivastava, VK; Dwivedi, TD (1979). "Estimación de ecuaciones de regresión aparentemente no relacionadas: un breve estudio". Journal of Econometrics . 10 (1): 15–32. doi :10.1016/0304-4076(79)90061-7.
  8. ^ Kmenta, Jan ; Gilbert, Roy F. (1968). "Propiedades de muestras pequeñas de estimadores alternativos de regresiones aparentemente no relacionadas". Revista de la Asociación Estadounidense de Estadística . 63 (324): 1180–1200. doi :10.2307/2285876. JSTOR  2285876.
  9. ^ Zellner, A.; Ando, ​​T. (2010). "Un enfoque directo de Monte Carlo para el análisis bayesiano del modelo de regresión aparentemente no relacionado". Journal of Econometrics . 159 : 33–45. CiteSeerX 10.1.1.553.7799 . doi :10.1016/j.jeconom.2010.04.005. 
  10. ^ Hay ejemplos disponibles en la viñeta del paquete.
  11. ^ Zeileis, Achim (2008). "Vista de tareas de CRAN: econometría computacional". {{cite journal}}: Requiere citar revista |journal=( ayuda )
  12. ^ Kleiber, Christian; Zeileis, Achim (2008). Econometría aplicada con R. Nueva York: Springer. pp. 89–90. ISBN 978-0-387-77318-6.
  13. ^ Vinod, Hrishikesh D. (2008). "Identificación de modelos de ecuaciones simultáneas". Econometría intermedia práctica con R. World Scientific. págs. 282–88. ISBN 978-981-281-885-0.
  14. ^ "Estimación de SUR, 3SLS y FIML". Soporte SAS .
  15. ^ "sureg — La regresión aparentemente no relacionada de Zellner" (PDF) . Manual de Stata .
  16. ^ Baum, Christopher F. (2006). Introducción a la econometría moderna con Stata. College Station: Stata Press. págs. 236–242. ISBN 978-1-59718-013-9.
  17. ^ Cameron, A. Colin; Trivedi, Pravin K. (2010). "Sistema de regresiones lineales". Microeconometría con Stata (edición revisada). College Station: Stata Press. págs. 162–69. ISBN 978-1-59718-073-3.
  18. ^ "Copia archivada". Archivado desde el original el 24 de abril de 2016. Consultado el 13 de abril de 2016 .{{cite web}}: CS1 maint: archived copy as title (link)
  19. ^ "Estimadores de regresión del sistema: documentación de linearmodels 3.5". bashtage.github.io . Consultado el 3 de julio de 2017 .

Lectura adicional

  • Davidson, James (2000). Teoría econométrica . Oxford: Blackwell. Págs. 308-314. ISBN. 978-0-631-17837-8.
  • Fiebig, Denzil G. (2001). "Regresión aparentemente no relacionada". En Baltagi, Badi H. (ed.). A Companion to Theoretical Econometrics . Oxford: Blackwell. págs. 101–121. ISBN 978-0-631-21254-6.
  • Greene, William H. (2012). Análisis econométrico (séptima edición). Upper Saddle River: Pearson Prentice-Hall. págs. 332–344. ISBN 978-0-273-75356-8.
Retrieved from "https://en.wikipedia.org/w/index.php?title=Seemingly_unrelated_regressions&oldid=1225442332"