Modelos de errores en las variables

Modelos de regresión que tienen en cuenta posibles errores en las variables independientes

En estadística , los modelos de errores en las variables o modelos de error de medición son modelos de regresión que tienen en cuenta los errores de medición en las variables independientes . Por el contrario, los modelos de regresión estándar suponen que esos regresores se han medido con exactitud o se han observado sin errores; por lo tanto, esos modelos solo tienen en cuenta los errores en las variables dependientes o respuestas. [ cita requerida ]

Ilustración de la dilución de la regresión (o sesgo de atenuación) por un rango de estimaciones de regresión en modelos de errores en las variables. Dos líneas de regresión (rojas) limitan el rango de posibilidades de regresión lineal. La pendiente suave se obtiene cuando la variable independiente (o predictor) está en el eje x. La pendiente más pronunciada se obtiene cuando la variable independiente está en el eje y. Por convención, con la variable independiente en el eje x, se obtiene la pendiente más suave. Las líneas de referencia verdes son promedios dentro de intervalos arbitrarios a lo largo de cada eje. Nótese que las estimaciones de regresión más pronunciadas de color verde y rojo son más consistentes con errores más pequeños en la variable del eje y.

En el caso de que algunos regresores hayan sido medidos con errores, la estimación basada en el supuesto estándar conduce a estimaciones inconsistentes , lo que significa que las estimaciones de los parámetros no tienden a los valores verdaderos incluso en muestras muy grandes. En el caso de la regresión lineal simple, el efecto es una subestimación del coeficiente, conocida como sesgo de atenuación . En los modelos no lineales, es probable que la dirección del sesgo sea más complicada. [1] [2] [3]

Ejemplo motivador

Consideremos un modelo de regresión lineal simple de la forma

y t = α + β x t + ε t , t = 1 , , T , {\displaystyle y_{t}=\alpha +\beta x_{t}^{*}+\varepsilon _{t}\,,\quad t=1,\ldots ,T,}

donde denota el regresor verdadero pero no observado . En cambio, observamos este valor con un error: x t {\displaystyle x_{t}^{*}}

x t = x t + η t {\displaystyle x_{t}=x_{t}^{*}+\eta _{t}\,}

donde se supone que el error de medición es independiente del valor verdadero . Una aplicación práctica es el experimento de ciencias estándar de la escuela para la Ley de Hooke , en el que se estima la relación entre el peso agregado a un resorte y la cantidad en que se estira el resorte. Si los ′ se regresionan simplemente sobre los ′ (ver regresión lineal simple ), entonces el estimador para el coeficiente de pendiente es η t {\displaystyle \eta _{t}} x t {\displaystyle x_{t}^{*}}

y t {\displaystyle y_{t}} x t {\displaystyle x_{t}}

β ^ x = 1 T t = 1 T ( x t x ¯ ) ( y t y ¯ ) 1 T t = 1 T ( x t x ¯ ) 2 , {\displaystyle {\hat {\beta }}_{x}={\frac {{\tfrac {1}{T}}\sum _{t=1}^{T}(x_{t}-{\bar {x}})(y_{t}-{\bar {y}})}{{\tfrac {1}{T}}\sum _{t=1}^{T}(x_{t}-{\bar {x}})^{2}}}\,,}

que converge a medida que aumenta el tamaño de la muestra sin límite: T {\displaystyle T}

β ^ x p Cov [ x t , y t ] Var [ x t ] = β σ x 2 σ x 2 + σ η 2 = β 1 + σ η 2 / σ x 2 . {\displaystyle {\hat {\beta }}_{x}\xrightarrow {p} {\frac {\operatorname {Cov} [\,x_{t},y_{t}\,]}{\operatorname {Var} [\,x_{t}\,]}}={\frac {\beta \sigma _{x^{*}}^{2}}{\sigma _{x^{*}}^{2}+\sigma _{\eta }^{2}}}={\frac {\beta }{1+\sigma _{\eta }^{2}/\sigma _{x^{*}}^{2}}}\,.}

Esto contrasta con el efecto "verdadero" de , estimado utilizando el ,: β {\displaystyle \beta } x t {\displaystyle x_{t}^{*}}

β ^ = 1 T t = 1 T ( x t x ¯ ) ( y t y ¯ ) 1 T t = 1 T ( x t x ¯ ) 2 , {\displaystyle {\hat {\beta }}={\frac {{\tfrac {1}{T}}\sum _{t=1}^{T}(x_{t}^{*}-{\bar {x}})(y_{t}-{\bar {y}})}{{\tfrac {1}{T}}\sum _{t=1}^{T}(x_{t}^{*}-{\bar {x}})^{2}}}\,,}

Las varianzas no son negativas, de modo que en el límite el estimado es menor que , un efecto que los estadísticos llaman atenuación o dilución de regresión . [4] Por lo tanto, el estimador de mínimos cuadrados "ingenuo" es un estimador inconsistente para . Sin embargo, es un estimador consistente del parámetro requerido para un mejor predictor lineal de dado el observado : en algunas aplicaciones esto puede ser lo que se requiere, en lugar de una estimación del coeficiente de regresión "verdadero" , aunque eso supondría que la varianza de los errores en la estimación y la predicción es idéntica. Esto se desprende directamente del resultado citado inmediatamente arriba, y del hecho de que el coeficiente de regresión que relaciona los ′ con los ′ realmente observados, en una regresión lineal simple, está dado por β ^ x {\displaystyle {\hat {\beta }}_{x}} β ^ {\displaystyle {\hat {\beta }}} β ^ x {\displaystyle {\hat {\beta }}_{x}} β {\displaystyle \beta } β ^ x {\displaystyle {\hat {\beta }}_{x}} y {\displaystyle y} x t {\displaystyle x_{t}} β {\displaystyle \beta } y t {\displaystyle y_{t}} x t {\displaystyle x_{t}}

β x = Cov [ x t , y t ] Var [ x t ] . {\displaystyle \beta _{x}={\frac {\operatorname {Cov} [\,x_{t},y_{t}\,]}{\operatorname {Var} [\,x_{t}\,]}}.}

Es este coeficiente, en lugar de , el que se requeriría para construir un predictor de basado en un observado que está sujeto a ruido. β {\displaystyle \beta } y {\displaystyle y} x {\displaystyle x}

Se puede argumentar que casi todos los conjuntos de datos existentes contienen errores de distinta naturaleza y magnitud, por lo que el sesgo de atenuación es extremadamente frecuente (aunque en la regresión multivariante la dirección del sesgo es ambigua [5] ). Jerry Hausman ve esto como una ley de hierro de la econometría : "La magnitud de la estimación suele ser menor que la esperada". [6]

Especificación

Por lo general, los modelos de error de medición se describen utilizando el enfoque de variables latentes . Si es la variable de respuesta y son los valores observados de los regresores, entonces se supone que existen algunas variables latentes y que siguen la relación funcional “verdadera” del modelo , y que las cantidades observadas son sus observaciones ruidosas: y {\displaystyle y} x {\displaystyle x} y {\displaystyle y^{*}} x {\displaystyle x^{*}} g ( ) {\displaystyle g(\cdot )}

{ y = g ( x , w | θ ) , y = y + ε , x = x + η , {\displaystyle {\begin{cases}y^{*}=g(x^{*}\!,w\,|\,\theta ),\\y=y^{*}+\varepsilon ,\\x=x^{*}+\eta ,\end{cases}}}

donde es el parámetro del modelo y son aquellos regresores que se supone que están libres de errores (por ejemplo, cuando la regresión lineal contiene una intersección, el regresor que corresponde a la constante ciertamente no tiene "errores de medición"). Dependiendo de la especificación, estos regresores libres de errores pueden o no tratarse por separado; en el último caso, simplemente se supone que las entradas correspondientes en la matriz de varianza de son cero. θ {\displaystyle \theta } w {\displaystyle w} η {\displaystyle \eta }

Las variables , , son todas observadas , lo que significa que el estadístico posee un conjunto de datos de unidades estadísticas que siguen el proceso de generación de datos descrito anteriormente; sin embargo, las variables latentes , , y no se observan. y {\displaystyle y} x {\displaystyle x} w {\displaystyle w} n {\displaystyle n} { y i , x i , w i } i = 1 , , n {\displaystyle \left\{y_{i},x_{i},w_{i}\right\}_{i=1,\dots ,n}} x {\displaystyle x^{*}} y {\displaystyle y^{*}} ε {\displaystyle \varepsilon } η {\displaystyle \eta }

Esta especificación no abarca todos los modelos de errores en las variables existentes. Por ejemplo, en algunos de ellos la función puede ser no paramétrica o semiparamétrica. Otros enfoques modelan la relación entre y como distributiva en lugar de funcional, es decir, suponen que condicionalmente en sigue una determinada distribución (normalmente paramétrica). g ( ) {\displaystyle g(\cdot )} y {\displaystyle y^{*}} x {\displaystyle x^{*}} y {\displaystyle y^{*}} x {\displaystyle x^{*}}

Terminología y suposiciones

  • La variable observada puede denominarse variable manifiesta , indicadora o proxy . x {\displaystyle x}
  • La variable no observada puede denominarse variable latente o verdadera . Puede considerarse una constante desconocida (en cuyo caso el modelo se denomina modelo funcional ) o una variable aleatoria (en consecuencia, un modelo estructural ). [7] x {\displaystyle x^{*}}
  • La relación entre el error de medición y la variable latente se puede modelar de diferentes maneras: η {\displaystyle \eta } x {\displaystyle x^{*}}
    • Errores clásicos : los errores son independientes de la variable latente. Este es el supuesto más común, implica que los errores son introducidos por el dispositivo de medición y su magnitud no depende del valor medido. η x {\displaystyle \eta \perp x^{*}}
    • Independencia de la media : los errores son de media cero para cada valor del regresor latente. Este es un supuesto menos restrictivo que el clásico, [8] ya que permite la presencia de heterocedasticidad u otros efectos en los errores de medición. E [ η | x ] = 0 , {\displaystyle \operatorname {E} [\eta |x^{*}]\,=\,0,}
    • Errores de Berkson :los errores son independientes delregresor observado x . [9] Esta suposición tiene una aplicabilidad muy limitada. Un ejemplo son los errores de redondeo: por ejemplo, si la edad de una persona* es una variable aleatoria continua , mientras que la edad observada se trunca al siguiente entero más pequeño, entonces el error de truncamiento es aproximadamente independiente de la edad observada . Otra posibilidad es con el experimento de diseño fijo: por ejemplo, si un científico decide hacer una medición en un cierto momento predeterminado de tiempo, digamos en, entonces la medición real puede ocurrir en algún otro valor de(por ejemplo, debido a su tiempo de reacción finito) y dicho error de medición será generalmente independiente del valor "observado" del regresor. η x , {\displaystyle \eta \,\perp \,x,} x {\displaystyle x} x = 10 s {\displaystyle x=10s} x {\displaystyle x^{*}}
    • Errores de clasificación errónea : caso especial utilizado para los regresores ficticios . Si es un indicador de un determinado evento o condición (como que la persona es hombre/mujer, se le administra algún tratamiento médico/no, etc.), entonces el error de medición en dicho regresor corresponderá a la clasificación incorrecta similar a los errores de tipo I y tipo II en las pruebas estadísticas. En este caso, el error puede tomar solo 3 valores posibles, y su distribución condicional a se modela con dos parámetros: , y . La condición necesaria para la identificación es que , es decir, la clasificación errónea no debería ocurrir "con demasiada frecuencia". (Esta idea se puede generalizar a variables discretas con más de dos valores posibles). x {\displaystyle x^{*}} η {\displaystyle \eta } x {\displaystyle x^{*}} α = Pr [ η = 1 | x = 1 ] {\displaystyle \alpha =\operatorname {Pr} [\eta =-1|x^{*}=1]} β = Pr [ η = 1 | x = 0 ] {\displaystyle \beta =\operatorname {Pr} [\eta =1|x^{*}=0]} α + β < 1 {\displaystyle \alpha +\beta <1}

Modelo lineal

Los modelos lineales de errores en las variables se estudiaron primero, probablemente porque los modelos lineales se usaban ampliamente y eran más fáciles que los no lineales. A diferencia de la regresión de mínimos cuadrados (MCO) estándar, extender la regresión de errores en las variables (EiV) del caso simple al caso multivariable no es sencillo, a menos que se traten todas las variables de la misma manera, es decir, suponiendo que la confiabilidad es igual. [10]

Modelo lineal simple

El modelo simple de errores lineales en las variables ya fue presentado en la sección "motivación":

{ y t = α + β x t + ε t , x t = x t + η t , {\displaystyle {\begin{cases}y_{t}=\alpha +\beta x_{t}^{*}+\varepsilon _{t},\\x_{t}=x_{t}^{*}+\eta _{t},\end{cases}}}

donde todas las variables son escalares . Aquí α y β son los parámetros de interés, mientras que σ ε y σ η —desviaciones estándar de los términos de error— son los parámetros molestos . El regresor "verdadero" x* se trata como una variable aleatoria ( modelo estructural ), independiente del error de medición η ( supuesto clásico ).

Este modelo es identificable en dos casos: (1) o bien el regresor latente x* no se distribuye normalmente , (2) o bien x* tiene una distribución normal, pero ni ε t ni η t son divisibles por una distribución normal. [11] Es decir, los parámetros α , β se pueden estimar de forma consistente a partir del conjunto de datos sin ninguna información adicional, siempre que el regresor latente no sea gaussiano. ( x t , y t ) t = 1 T {\displaystyle \scriptstyle (x_{t},\,y_{t})_{t=1}^{T}}

Antes de que se estableciera este resultado de identificabilidad, los estadísticos intentaron aplicar la técnica de máxima verosimilitud suponiendo que todas las variables eran normales y luego concluyeron que el modelo no estaba identificado. La solución sugerida fue suponer que algunos de los parámetros del modelo son conocidos o pueden estimarse a partir de una fuente externa. Entre estos métodos de estimación se incluyen [12]

  • Regresión de Deming : supone que se conoce la relación δ = σ² ε / σ² η . Esto podría ser apropiado, por ejemplo, cuando los errores en y y x son causados ​​por mediciones y se conoce la precisión de los dispositivos o procedimientos de medición. El caso en el que δ = 1 también se conoce como regresión ortogonal .
  • Regresión con un índice de fiabilidad conocido λ = σ² / ( σ² η + σ² ), donde σ² es la varianza del regresor latente. Este enfoque puede ser aplicable, por ejemplo, cuando se dispone de mediciones repetidas de la misma unidad o cuando el índice de fiabilidad se conoce a partir de un estudio independiente. En este caso, la estimación consistente de la pendiente es igual a la estimación de mínimos cuadrados dividida por λ .
  • La regresión con σ² η conocido puede ocurrir cuando se conoce la fuente de los errores en x' s y se puede calcular su varianza. Esto podría incluir errores de redondeo o errores introducidos por el dispositivo de medición. Cuando se conoce σ² η podemos calcular la razón de confiabilidad como λ = ( σ² xσ² η ) / σ² x y reducir el problema al caso anterior.

Los métodos de estimación que no presuponen el conocimiento de algunos de los parámetros del modelo incluyen:

  • Método de momentos: estimador GMM basado en los cumulantes conjuntos de tercer orden (o superior) de las variables observables. El coeficiente de pendiente se puede estimar a partir de [13]
    β ^ = K ^ ( n 1 , n 2 + 1 ) K ^ ( n 1 + 1 , n 2 ) , n 1 , n 2 > 0 , {\displaystyle {\hat {\beta }}={\frac {{\hat {K}}(n_{1},n_{2}+1)}{{\hat {K}}(n_{1}+1,n_{2})}},\quad n_{1},n_{2}>0,}

    donde ( n 1 , n 2 ) son tales que K ( n 1 +1, n 2 ) — el cumulante conjunto de ( x , y ) — no es cero. En el caso en que el tercer momento central del regresor latente x* no sea cero, la fórmula se reduce a

    β ^ = 1 T t = 1 T ( x t x ¯ ) ( y t y ¯ ) 2 1 T t = 1 T ( x t x ¯ ) 2 ( y t y ¯ )   . {\displaystyle {\hat {\beta }}={\frac {{\tfrac {1}{T}}\sum _{t=1}^{T}(x_{t}-{\bar {x}})(y_{t}-{\bar {y}})^{2}}{{\tfrac {1}{T}}\sum _{t=1}^{T}(x_{t}-{\bar {x}})^{2}(y_{t}-{\bar {y}})}}\ .}
  • Variables instrumentales : una regresión que requiere que se disponga de determinadas variables de datos adicionales z , llamadas instrumentos . Estas variables no deben estar correlacionadas con los errores de la ecuación de la variable dependiente (resultado) ( válidas ) y también deben estar correlacionadas ( relevantes ) con los regresores verdaderos x* . Si se pueden encontrar dichas variables, el estimador toma la forma
    β ^ = 1 T t = 1 T ( z t z ¯ ) ( y t y ¯ ) 1 T t = 1 T ( z t z ¯ ) ( x t x ¯ )   . {\displaystyle {\hat {\beta }}={\frac {{\tfrac {1}{T}}\sum _{t=1}^{T}(z_{t}-{\bar {z}})(y_{t}-{\bar {y}})}{{\tfrac {1}{T}}\sum _{t=1}^{T}(z_{t}-{\bar {z}})(x_{t}-{\bar {x}})}}\ .}
  • Relación funcional de media geométrica. Trata a ambas variables como si tuvieran la misma fiabilidad. La pendiente resultante es la media geométrica de la pendiente de mínimos cuadrados ordinarios y la pendiente de mínimos cuadrados inversos, es decir, las dos líneas rojas del diagrama. [14]

Modelo lineal multivariable

El modelo multivariable se parece exactamente al modelo lineal simple, sólo que esta vez β , η t , x t y x* t son vectores 1.

{ y t = α + β x t + ε t , x t = x t + η t . {\displaystyle {\begin{cases}y_{t}=\alpha +\beta 'x_{t}^{*}+\varepsilon _{t},\\x_{t}=x_{t}^{*}+\eta _{t}.\end{cases}}}

En el caso en que ( ε t , η t ) sea conjuntamente normal, el parámetro β no se identifica si y solo si hay una  matriz de bloques k×k no singular [ a A ], donde a es un vector 1 tal que a′x*  se distribuye normalmente e independientemente de  A′x* . En el caso en que ε t , η t1 ,..., η tk sean mutuamente independientes, el parámetro  β  no se identifica si y solo si además de las condiciones anteriores algunos de los errores se pueden escribir como la suma de dos variables independientes, una de las cuales es normal. [15]

Algunos de los métodos de estimación para modelos lineales multivariables son

  • Los mínimos cuadrados totales son una extensión de la regresión de Deming al entorno multivariable. Cuando todos los componentes k +1 del vector ( ε , η ) tienen varianzas iguales y son independientes, esto es equivalente a ejecutar la regresión ortogonal de y sobre el vector x , es decir, la regresión que minimiza la suma de las distancias al cuadrado entre los puntos ( y t , x t ) y el hiperplano k -dimensional de "mejor ajuste".
  • El método del estimador de momentos [16] se puede construir con base en las condiciones de momento E[ z t ·( y tαβ'x t )] = 0, donde el vector (5 k +3)-dimensional de instrumentos z t se define como
    z t = ( 1   z t 1   z t 2   z t 3   z t 4   z t 5   z t 6   z t 7 ) , where z t 1 = x t x t z t 2 = x t y t z t 3 = y t 2 z t 4 = x t x t x t 3 ( E [ x t x t ] I k ) x t z t 5 = x t x t y t 2 ( E [ y t x t ] I k ) x t y t ( E [ x t x t ] I k ) ι k z t 6 = x t y t 2 E [ y t 2 ] x t 2 y t E [ x t y t ] z t 7 = y t 3 3 y t E [ y t 2 ] {\displaystyle {\begin{aligned}&z_{t}=\left(1\ z_{t1}'\ z_{t2}'\ z_{t3}'\ z_{t4}'\ z_{t5}'\ z_{t6}'\ z_{t7}'\right)',\quad {\text{where}}\\&z_{t1}=x_{t}\circ x_{t}\\&z_{t2}=x_{t}y_{t}\\&z_{t3}=y_{t}^{2}\\&z_{t4}=x_{t}\circ x_{t}\circ x_{t}-3{\big (}\operatorname {E} [x_{t}x_{t}']\circ I_{k}{\big )}x_{t}\\&z_{t5}=x_{t}\circ x_{t}y_{t}-2{\big (}\operatorname {E} [y_{t}x_{t}']\circ I_{k}{\big )}x_{t}-y_{t}{\big (}\operatorname {E} [x_{t}x_{t}']\circ I_{k}{\big )}\iota _{k}\\&z_{t6}=x_{t}y_{t}^{2}-\operatorname {E} [y_{t}^{2}]x_{t}-2y_{t}\operatorname {E} [x_{t}y_{t}]\\&z_{t7}=y_{t}^{3}-3y_{t}\operatorname {E} [y_{t}^{2}]\end{aligned}}}

    donde designa el producto Hadamard de matrices, y las variables x t , y t han sido des-mediadas preliminarmente. Los autores del método sugieren utilizar el estimador IV modificado de Fuller. [17] {\displaystyle \circ }

    Este método se puede ampliar para utilizar momentos superiores al tercer orden, si es necesario, y para acomodar variables medidas sin error. [18]
  • El enfoque de variables instrumentales requiere que encontremos variables de datos adicionales z t que sirvan como instrumentos para los regresores mal medidos x t . Este método es el más simple desde el punto de vista de la implementación, sin embargo, su desventaja es que requiere recopilar datos adicionales, lo que puede ser costoso o incluso imposible. Cuando se pueden encontrar los instrumentos, el estimador adopta la forma estándar
    β ^ = ( X Z ( Z Z ) 1 Z X ) 1 X Z ( Z Z ) 1 Z y . {\displaystyle {\hat {\beta }}={\big (}X'Z(Z'Z)^{-1}Z'X{\big )}^{-1}X'Z(Z'Z)^{-1}Z'y.}
  • El enfoque de ajuste imparcial trata todas las variables de la misma manera al suponer la misma confiabilidad y no requiere ninguna distinción entre las variables explicativas y de respuesta, ya que la ecuación resultante se puede reorganizar. Es el modelo de error de medición más simple y es una generalización de la relación funcional de la media geométrica mencionada anteriormente para dos variables. Solo requiere que se calculen las covarianzas, por lo que se puede estimar utilizando funciones básicas de una hoja de cálculo. [19]

Modelos no lineales

Un modelo genérico de error de medición no lineal toma forma

{ y t = g ( x t ) + ε t , x t = x t + η t . {\displaystyle {\begin{cases}y_{t}=g(x_{t}^{*})+\varepsilon _{t},\\x_{t}=x_{t}^{*}+\eta _{t}.\end{cases}}}

Aquí la función g puede ser paramétrica o no paramétrica. Cuando la función g es paramétrica se escribirá como g ( x *, β ).

En el caso de un regresor x* de valor vectorial general, no se conocen las condiciones de identificación del modelo . Sin embargo, en el caso de un escalar x*, el modelo se identifica a menos que la función g tenga la forma "log-exponencial" [20].

g ( x ) = a + b ln ( e c x + d ) {\displaystyle g(x^{*})=a+b\ln {\big (}e^{cx^{*}}+d{\big )}}

y el regresor latente x* tiene densidad

f x ( x ) = { A e B e C x + C D x ( e C x + E ) F , if   d > 0 A e B x 2 + C x if   d = 0 {\displaystyle f_{x^{*}}(x)={\begin{cases}Ae^{-Be^{Cx}+CDx}(e^{Cx}+E)^{-F},&{\text{if}}\ d>0\\Ae^{-Bx^{2}+Cx}&{\text{if}}\ d=0\end{cases}}}

donde las constantes A , B , C , D , E , F pueden depender de a , b , c , d .

A pesar de este resultado optimista, hasta el momento no existen métodos para estimar modelos no lineales de errores en las variables sin ninguna información extraña. Sin embargo, hay varias técnicas que hacen uso de algunos datos adicionales: ya sean las variables instrumentales o las observaciones repetidas.

Métodos de variables instrumentales

  • El método de momentos simulados de Newey [21] para modelos paramétricos requiere que haya un conjunto adicional de variables predictoras observadas z t , de modo que el regresor verdadero pueda expresarse como
    x t = π 0 z t + σ 0 ζ t , {\displaystyle x_{t}^{*}=\pi _{0}'z_{t}+\sigma _{0}\zeta _{t},}

    donde π 0 y σ 0 son matrices constantes (desconocidas) y ζ tz t . El coeficiente π 0 se puede estimar utilizando la regresión de mínimos cuadrados estándar de x sobre z . La distribución de ζ t es desconocida, sin embargo podemos modelarla como perteneciente a una familia paramétrica flexible: la serie de Edgeworth :

    f ζ ( v ; γ ) = ϕ ( v ) j = 1 J γ j v j {\displaystyle f_{\zeta }(v;\,\gamma )=\phi (v)\,\textstyle \sum _{j=1}^{J}\!\gamma _{j}v^{j}}

    donde ϕ es la distribución normal estándar .

    Los momentos simulados se pueden calcular utilizando el algoritmo de muestreo de importancia : primero generamos varias variables aleatorias { v ts ~ ϕ , s = 1,…, S , t = 1,…, T } a partir de la distribución normal estándar, luego calculamos los momentos en la t -ésima observación como

    m t ( θ ) = A ( z t ) 1 S s = 1 S H ( x t , y t , z t , v t s ; θ ) j = 1 J γ j v t s j , {\displaystyle m_{t}(\theta )=A(z_{t}){\frac {1}{S}}\sum _{s=1}^{S}H(x_{t},y_{t},z_{t},v_{ts};\theta )\sum _{j=1}^{J}\!\gamma _{j}v_{ts}^{j},}

    donde θ = ( β , σ , γ ), A es simplemente una función de las variables instrumentales z , y H es un vector de momentos de dos componentes

    H 1 ( x t , y t , z t , v t s ; θ ) = y t g ( π ^ z t + σ v t s , β ) , H 2 ( x t , y t , z t , v t s ; θ ) = z t y t ( π ^ z t + σ v t s ) g ( π ^ z t + σ v t s , β ) {\displaystyle {\begin{aligned}&H_{1}(x_{t},y_{t},z_{t},v_{ts};\theta )=y_{t}-g({\hat {\pi }}'z_{t}+\sigma v_{ts},\beta ),\\&H_{2}(x_{t},y_{t},z_{t},v_{ts};\theta )=z_{t}y_{t}-({\hat {\pi }}'z_{t}+\sigma v_{ts})g({\hat {\pi }}'z_{t}+\sigma v_{ts},\beta )\end{aligned}}}
    Con funciones de momento m t se puede aplicar la técnica GMM estándar para estimar el parámetro desconocido θ .

Observaciones repetidas

En este enfoque se dispone de dos (o quizás más) observaciones repetidas del regresor x* . Ambas observaciones contienen sus propios errores de medición, pero se requiere que esos errores sean independientes:

{ x 1 t = x t + η 1 t , x 2 t = x t + η 2 t , {\displaystyle {\begin{cases}x_{1t}=x_{t}^{*}+\eta _{1t},\\x_{2t}=x_{t}^{*}+\eta _{2t},\end{cases}}}

donde x*η 1η 2 . Las variables η 1 , η 2 no necesitan estar distribuidas de manera idéntica (aunque si lo están, la eficiencia del estimador puede mejorarse ligeramente). Con solo estas dos observaciones es posible estimar de manera consistente la función de densidad de x* utilizando la técnica de deconvolución de Kotlarski . [22]

  • Método de densidad condicional de Li para modelos paramétricos. [23] La ecuación de regresión se puede escribir en términos de las variables observables como
    E [ y t | x t ] = g ( x t , β ) f x | x ( x t | x t ) d x t , {\displaystyle \operatorname {E} [\,y_{t}|x_{t}\,]=\int g(x_{t}^{*},\beta )f_{x^{*}|x}(x_{t}^{*}|x_{t})dx_{t}^{*},}

    donde sería posible calcular la integral si conociéramos la función de densidad condicional ƒ x*|x . Si esta función pudiera conocerse o estimarse, entonces el problema se convierte en una regresión no lineal estándar, que puede estimarse, por ejemplo, utilizando el método NLLS .
    Suponiendo, para simplificar, que η 1 , η 2 se distribuyen de manera idéntica, esta densidad condicional puede calcularse como

    f ^ x | x ( x | x ) = f ^ x ( x ) f ^ x ( x ) j = 1 k f ^ η j ( x j x j ) , {\displaystyle {\hat {f}}_{x^{*}|x}(x^{*}|x)={\frac {{\hat {f}}_{x^{*}}(x^{*})}{{\hat {f}}_{x}(x)}}\prod _{j=1}^{k}{\hat {f}}_{\eta _{j}}{\big (}x_{j}-x_{j}^{*}{\big )},}

    donde con un ligero abuso de notación x j denota el componente j -ésimo de un vector.
    Todas las densidades en esta fórmula se pueden estimar utilizando la inversión de las funciones características empíricas . En particular,

    φ ^ η j ( v ) = φ ^ x j ( v , 0 ) φ ^ x j ( v ) , where  φ ^ x j ( v 1 , v 2 ) = 1 T t = 1 T e i v 1 x 1 t j + i v 2 x 2 t j , φ ^ x j ( v ) = exp 0 v φ ^ x j ( 0 , v 2 ) / v 1 φ ^ x j ( 0 , v 2 ) d v 2 , φ ^ x ( u ) = 1 2 T t = 1 T ( e i u x 1 t + e i u x 2 t ) , φ ^ x ( u ) = φ ^ x ( u ) j = 1 k φ ^ η j ( u j ) . {\displaystyle {\begin{aligned}&{\hat {\varphi }}_{\eta _{j}}(v)={\frac {{\hat {\varphi }}_{x_{j}}(v,0)}{{\hat {\varphi }}_{x_{j}^{*}}(v)}},\quad {\text{where }}{\hat {\varphi }}_{x_{j}}(v_{1},v_{2})={\frac {1}{T}}\sum _{t=1}^{T}e^{iv_{1}x_{1tj}+iv_{2}x_{2tj}},\\{\hat {\varphi }}_{x_{j}^{*}}(v)=\exp \int _{0}^{v}{\frac {\partial {\hat {\varphi }}_{x_{j}}(0,v_{2})/\partial v_{1}}{{\hat {\varphi }}_{x_{j}}(0,v_{2})}}dv_{2},\\&{\hat {\varphi }}_{x}(u)={\frac {1}{2T}}\sum _{t=1}^{T}{\Big (}e^{iu'x_{1t}}+e^{iu'x_{2t}}{\Big )},\quad {\hat {\varphi }}_{x^{*}}(u)={\frac {{\hat {\varphi }}_{x}(u)}{\prod _{j=1}^{k}{\hat {\varphi }}_{\eta _{j}}(u_{j})}}.\end{aligned}}}

    Para invertir estas funciones características es necesario aplicar la transformada inversa de Fourier, con un parámetro de ajuste C necesario para asegurar la estabilidad numérica. Por ejemplo:

    f ^ x ( x ) = 1 ( 2 π ) k C C C C e i u x φ ^ x ( u ) d u . {\displaystyle {\hat {f}}_{x}(x)={\frac {1}{(2\pi )^{k}}}\int _{-C}^{C}\cdots \int _{-C}^{C}e^{-iu'x}{\hat {\varphi }}_{x}(u)du.}
  • Estimador de Schennach para un modelo paramétrico lineal en parámetros y no lineal en variables. [24] Este es un modelo de la forma
    { y t = j = 1 k β j g j ( x t ) + j = 1 β k + j w j t + ε t , x 1 t = x t + η 1 t , x 2 t = x t + η 2 t , {\displaystyle {\begin{cases}y_{t}=\textstyle \sum _{j=1}^{k}\beta _{j}g_{j}(x_{t}^{*})+\sum _{j=1}^{\ell }\beta _{k+j}w_{jt}+\varepsilon _{t},\\x_{1t}=x_{t}^{*}+\eta _{1t},\\x_{2t}=x_{t}^{*}+\eta _{2t},\end{cases}}}

    donde w t representa variables medidas sin errores. El regresor x* aquí es escalar (el método puede extenderse también al caso del vector x*
    ). Si no fuera por los errores de medición, este habría sido un modelo lineal estándar con el estimador

    β ^ = ( E ^ [ ξ t ξ t ] ) 1 E ^ [ ξ t y t ] , {\displaystyle {\hat {\beta }}={\big (}{\hat {\operatorname {E} }}[\,\xi _{t}\xi _{t}'\,]{\big )}^{-1}{\hat {\operatorname {E} }}[\,\xi _{t}y_{t}\,],}

    dónde

    ξ t = ( g 1 ( x t ) , , g k ( x t ) , w 1 , t , , w l , t ) . {\displaystyle \xi _{t}'=(g_{1}(x_{t}^{*}),\cdots ,g_{k}(x_{t}^{*}),w_{1,t},\cdots ,w_{l,t}).}

    Resulta que todos los valores esperados en esta fórmula son estimables utilizando el mismo truco de deconvolución. En particular, para un observable genérico w t (que podría ser 1, w 1 t , …, w ℓ t o y t ) y alguna función h (que podría representar cualquier g j o g i g j ) tenemos

    E [ w t h ( x t ) ] = 1 2 π φ h ( u ) ψ w ( u ) d u , {\displaystyle \operatorname {E} [\,w_{t}h(x_{t}^{*})\,]={\frac {1}{2\pi }}\int _{-\infty }^{\infty }\varphi _{h}(-u)\psi _{w}(u)du,}

    donde φ h es la transformada de Fourier de h ( x* ), pero utilizando la misma convención que para las funciones características ,

    φ h ( u ) = e i u x h ( x ) d x {\displaystyle \varphi _{h}(u)=\int e^{iux}h(x)dx} ,

    y

    ψ w ( u ) = E [ w t e i u x ] = E [ w t e i u x 1 t ] E [ e i u x 1 t ] exp 0 u i E [ x 2 t e i v x 1 t ] E [ e i v x 1 t ] d v {\displaystyle \psi _{w}(u)=\operatorname {E} [\,w_{t}e^{iux^{*}}\,]={\frac {\operatorname {E} [w_{t}e^{iux_{1t}}]}{\operatorname {E} [e^{iux_{1t}}]}}\exp \int _{0}^{u}i{\frac {\operatorname {E} [x_{2t}e^{ivx_{1t}}]}{\operatorname {E} [e^{ivx_{1t}}]}}dv}
    El estimador resultante es consistente y asintóticamente normal. β ^ {\displaystyle \scriptstyle {\hat {\beta }}}
  • Estimador de Schennach para un modelo no paramétrico. [25] El estimador estándar de Nadaraya-Watson para un modelo no paramétrico toma la forma
    g ^ ( x ) = E ^ [ y t K h ( x t x ) ] E ^ [ K h ( x t x ) ] , {\displaystyle {\hat {g}}(x)={\frac {{\hat {\operatorname {E} }}[\,y_{t}K_{h}(x_{t}^{*}-x)\,]}{{\hat {\operatorname {E} }}[\,K_{h}(x_{t}^{*}-x)\,]}},}
    para una elección adecuada del núcleo K y del ancho de banda h . Ambas expectativas pueden estimarse aquí utilizando la misma técnica que en el método anterior.

Referencias

  1. ^ Griliches, Zvi; Ringstad, Vidar (1970). "Sesgo por errores en las variables en contextos no lineales". Econometrica . 38 (2): 368–370. doi :10.2307/1913020. JSTOR  1913020.
  2. ^ Chesher, Andrew (1991). "El efecto del error de medición". Biometrika . 78 (3): 451–462. doi :10.1093/biomet/78.3.451. JSTOR  2337015.
  3. ^ Carroll, Raymond J.; Ruppert, David; Stefanski, Leonard A.; Crainiceanu, Ciprian (2006). Error de medición en modelos no lineales: una perspectiva moderna (segunda edición). ISBN 978-1-58488-633-4.
  4. ^ Greene, William H. (2003). Análisis econométrico (5.ª ed.). Nueva Jersey: Prentice Hall. Capítulo 5.6.1. ISBN 978-0-13-066189-0.
  5. ^ Wansbeek, T.; Meijer, E. (2000). "Error de medición y variables latentes". En Baltagi, BH (ed.). Un compañero para la econometría teórica . Blackwell. págs. 162–179. doi :10.1111/b.9781405106764.2003.00013.x. ISBN . 9781405106764.
  6. ^ Hausman, Jerry A. (2001). "Variables mal medidas en el análisis econométrico: problemas desde la derecha y problemas desde la izquierda". Journal of Economic Perspectives . 15 (4): 57–67 [p. 58]. doi : 10.1257/jep.15.4.57 . JSTOR  2696516.
  7. ^ Fuller, Wayne A. (1987). Modelos de error de medición. John Wiley & Sons. pág. 2. ISBN 978-0-471-86187-4.
  8. ^ Hayashi, Fumio (2000). Econometría. Princeton University Press. pp. 7-8. ISBN 978-1400823833.
  9. ^ Koul, Hira; Song, Weixing (2008). "Verificación de modelos de regresión con errores de medición de Berkson". Revista de planificación e inferencia estadística . 138 (6): 1615–1628. doi :10.1016/j.jspi.2007.05.048.
  10. ^ Tofallis, C. (2023). Ajuste imparcial de una ecuación a los datos. Matemáticas, 11(18), 3957. https://ssrn.com/abstract=4556739 https://doi.org/10.3390/math11183957
  11. ^ Reiersøl, Olav (1950). "Identificabilidad de una relación lineal entre variables sujetas a error". Econometrica . 18 (4): 375–389 [p. 383]. doi :10.2307/1907835. JSTOR  1907835.Geary, RC (1942) estableció anteriormente un resultado algo más restrictivo : «Relaciones inherentes entre variables aleatorias». Actas de la Real Academia Irlandesa . 47 : 63–76. JSTOR  20488436.Demostró que bajo el supuesto adicional de que ( ε, η ) son conjuntamente normales, el modelo no se identifica si y solo si x* s son normales.
  12. ^ Fuller, Wayne A. (1987). "Una única variable explicativa". Modelos de error de medición . John Wiley & Sons. págs. 1–99. ISBN 978-0-471-86187-4.
  13. ^ Pal, Manoranjan (1980). "Estimadores de momento consistentes de coeficientes de regresión en presencia de errores en las variables". Journal of Econometrics . 14 (3): 349–364 (pp. 360–361). doi :10.1016/0304-4076(80)90032-9.
  14. ^ Xu, Shaoji (2014-10-02). "Una propiedad de la regresión de media geométrica". The American Statistician . 68 (4): 277–281. doi :10.1080/00031305.2014.962763. ISSN  0003-1305.
  15. ^ Ben-Moshe, Dan (2020). "Identificación de regresiones lineales con errores en todas las variables". Teoría econométrica . 37 (4): 1–31. arXiv : 1404.1473 . doi :10.1017/S0266466620000250. S2CID  225653359.
  16. ^ Dagenais, Marcel G.; Dagenais, Denyse L. (1997). "Estimadores de momento superior para modelos de regresión lineal con errores en las variables". Journal of Econometrics . 76 (1–2): 193–221. CiteSeerX 10.1.1.669.8286 . doi :10.1016/0304-4076(95)01789-5. En el artículo anterior, Pal (1980) consideró un caso más simple cuando todos los componentes del vector ( ε , η ) son independientes y están distribuidos simétricamente.
  17. ^ Fuller, Wayne A. (1987). Modelos de error de medición. John Wiley & Sons. pág. 184. ISBN 978-0-471-86187-4.
  18. ^ Erickson, Timothy; Whited, Toni M. (2002). "Estimación GMM de dos pasos del modelo de errores en las variables utilizando momentos de alto orden". Teoría econométrica . 18 (3): 776–799. doi :10.1017/s0266466602183101. JSTOR  3533649. S2CID  14729228.
  19. ^ Tofallis, C. (2023). Ajuste imparcial de una ecuación a los datos. Matemáticas, 11(18), 3957. https://ssrn.com/abstract=4556739 https://doi.org/10.3390/math11183957
  20. ^ Schennach, S .; Hu, Y.; Lewbel, A. (2007). "Identificación no paramétrica del modelo clásico de errores en las variables sin información secundaria". Documento de trabajo .
  21. ^ Newey, Whitney K. (2001). "Estimación flexible de momentos simulados de modelos no lineales de errores en las variables". Revista de Economía y Estadística . 83 (4): 616–627. doi :10.1162/003465301753237704. hdl : 1721.1/63613 . JSTOR  3211757. S2CID  57566922.
  22. ^ Li, Tong; Vuong, Quang (1998). "Estimación no paramétrica del modelo de error de medición utilizando múltiples indicadores". Journal of Multivariate Analysis . 65 (2): 139–165. doi : 10.1006/jmva.1998.1741 .
  23. ^ Li, Tong (2002). "Estimación robusta y consistente de modelos no lineales de errores en las variables". Journal of Econometrics . 110 (1): 1–26. doi :10.1016/S0304-4076(02)00120-3.
  24. ^ Schennach, Susanne M. (2004). "Estimación de modelos no lineales con error de medición". Econometrica . 72 (1): 33–75. doi :10.1111/j.1468-0262.2004.00477.x. JSTOR  3598849.
  25. ^ Schennach, Susanne M. (2004). "Regresión no paramétrica en presencia de error de medición". Teoría econométrica . 20 (6): 1046–1093. doi :10.1017/S0266466604206028. S2CID  123036368.

Lectura adicional

  • Dougherty, Christopher (2011). "Regresores estocásticos y errores de medición". Introducción a la econometría (cuarta edición). Oxford University Press. pp. 300–330. ISBN 978-0-19-956708-9.
  • Kmenta, Jan (1986). "Estimación con datos deficientes". Elements of Econometrics (segunda edición). Nueva York: Macmillan. pp. 346–391. ISBN 978-0-02-365070-3.
  • Schennach, Susanne (2013). "Error de medición en modelos no lineales: una revisión". En Acemoglu, Daron; Arellano, Manuel; Dekel, Eddie (eds.). Avances en economía y econometría . Cambridge University Press. págs. 296–337. doi :10.1017/CBO9781139060035.009. hdl :10419/79526. ISBN . 9781107017214.
  • Una visión histórica de la regresión lineal con errores en ambas variables, JW Gillard 2006
  • Conferencia sobre econometría (tema: Regresores estocásticos y error de medición) en YouTube por Mark Thoma .
Retrieved from "https://en.wikipedia.org/w/index.php?title=Errors-in-variables_models&oldid=1243772476"