Residuo estudentizado

En estadística , un residuo estudentizado es la razón adimensional resultante de la división de un residuo por una estimación de su desviación estándar , ambas expresadas en las mismas unidades . Es una forma de estadística t de Student , en la que la estimación del error varía entre puntos.

Esta es una técnica importante en la detección de valores atípicos . Se encuentra entre varias técnicas que llevan el nombre de William Sealey Gosset , quien escribió bajo el seudónimo de "Student" (por ejemplo, distribución de Student ). Dividir una estadística por una desviación estándar de la muestra se denomina "estudiantear ", en analogía con la estandarización y la normalización .

Motivación

La razón principal para la studentización es que, en el análisis de regresión de una distribución multivariante , las varianzas de los residuos en diferentes valores de la variable de entrada pueden diferir, incluso si las varianzas de los errores en estos diferentes valores de la variable de entrada son iguales. La cuestión es la diferencia entre errores y residuos en estadística , en particular el comportamiento de los residuos en regresiones.

Consideremos el modelo de regresión lineal simple

Y = α 0 + α 1 X + ε . {\displaystyle Y=\alpha _{0}+\alpha _{1}X+\varepsilon .\,}

Dada una muestra aleatoria ( X iY i ), i  = 1, ...,  n , cada par ( X iY i ) satisface

Y i = α 0 + α 1 X i + ε i , {\displaystyle Y_{i}=\alpha _{0}+\alpha _{1}X_{i}+\varepsilon _{i},\,}

donde los errores , son independientes y todos tienen la misma varianza . Los residuos no son los errores verdaderos, sino estimaciones , basadas en los datos observables. Cuando se utiliza el método de mínimos cuadrados para estimar y , entonces los residuos , a diferencia de los errores , no pueden ser independientes ya que satisfacen las dos restricciones ε i {\displaystyle \varepsilon _{i}} σ 2 {\displaystyle \sigma ^{2}} α 0 {\displaystyle \alpha _{0}} α 1 {\displaystyle \alpha _{1}} ε ^ {\displaystyle {\widehat {\varepsilon \,}}} ε {\displaystyle \varepsilon }

i = 1 n ε ^ i = 0 {\displaystyle \sum _{i=1}^{n}{\widehat {\varepsilon \,}}_{i}=0}

y

i = 1 n ε ^ i x i = 0. {\displaystyle \sum _{i=1}^{n}{\widehat {\varepsilon \,}}_{i}x_{i}=0.}

(Aquí ε i es el i -ésimo error, y es el i- ésimo residuo). ε ^ i {\displaystyle {\widehat {\varepsilon \,}}_{i}}

Los residuos, a diferencia de los errores, no tienen todos la misma varianza: la varianza disminuye a medida que el valor x correspondiente se aleja del valor x promedio . Esto no es una característica de los datos en sí, sino de los valores de mejor ajuste de la regresión en los extremos del dominio. También se refleja en las funciones de influencia de varios puntos de datos sobre los coeficientes de regresión : los puntos finales tienen más influencia. Esto también se puede ver porque los residuos en los puntos finales dependen en gran medida de la pendiente de una línea ajustada, mientras que los residuos en el medio son relativamente insensibles a la pendiente. El hecho de que las varianzas de los residuos difieran, aunque las varianzas de los errores verdaderos sean todas iguales entre sí, es la razón principal de la necesidad de la studentización.

No se trata simplemente de que se desconozcan los parámetros de la población (media y desviación estándar), sino de que las regresiones producen distribuciones residuales diferentes en diferentes puntos de datos, a diferencia de los estimadores puntuales de distribuciones univariadas , que comparten una distribución común para los residuales.

Fondo

Para este modelo simple, la matriz de diseño es

X = [ 1 x 1 1 x n ] {\displaystyle X=\left[{\begin{matrix}1&x_{1}\\\vdots &\vdots \\1&x_{n}\end{matrix}}\right]}

y la matriz de sombrero H es la matriz de la proyección ortogonal sobre el espacio de columnas de la matriz de diseño:

H = X ( X T X ) 1 X T . {\displaystyle H=X(X^{T}X)^{-1}X^{T}.\,}

El apalancamiento h ii es la i- ésima entrada diagonal en la matriz hat. La varianza del i- ésimo residuo es

var ( ε ^ i ) = σ 2 ( 1 h i i ) . {\displaystyle \operatorname {var} ({\widehat {\varepsilon \,}}_{i})=\sigma ^{2}(1-h_{ii}).}

En caso de que la matriz de diseño X tenga solo dos columnas (como en el ejemplo anterior), esto es igual a

var ( ε ^ i ) = σ 2 ( 1 1 n ( x i x ¯ ) 2 j = 1 n ( x j x ¯ ) 2 ) . {\displaystyle \operatorname {var} ({\widehat {\varepsilon \,}}_{i})=\sigma ^{2}\left(1-{\frac {1}{n}}-{\frac {(x_{i}-{\bar {x}})^{2}}{\sum _{j=1}^{n}(x_{j}-{\bar {x}})^{2}}}\right).}

En el caso de una media aritmética , la matriz de diseño X tiene solo una columna (un vector de unos ), y esto es simplemente:

var ( ε ^ i ) = σ 2 ( 1 1 n ) . {\displaystyle \operatorname {var} ({\widehat {\varepsilon \,}}_{i})=\sigma ^{2}\left(1-{\frac {1}{n}}\right).}

Cálculo

Dadas las definiciones anteriores, el residuo estudentizado es entonces

t i = ε ^ i σ ^ 1 h i i   {\displaystyle t_{i}={{\widehat {\varepsilon \,}}_{i} \over {\widehat {\sigma }}{\sqrt {1-h_{ii}\ }}}}

donde h ii es el apalancamiento , y es una estimación apropiada de σ (ver más abajo). σ ^ {\displaystyle {\widehat {\sigma }}}

En el caso de una media, esto es igual a:

t i = ε ^ i σ ^ ( n 1 ) / n {\displaystyle t_{i}={{\widehat {\varepsilon \,}}_{i} \over {\widehat {\sigma }}{\sqrt {(n-1)/n}}}}

Estudiantización interna y externa

La estimación habitual de σ 2 es el residuo estudentizado internamente

σ ^ 2 = 1 n m j = 1 n ε ^ j 2 . {\displaystyle {\widehat {\sigma }}^{2}={1 \over n-m}\sum _{j=1}^{n}{\widehat {\varepsilon \,}}_{j}^{\,2}.}

donde m es el número de parámetros en el modelo (2 en nuestro ejemplo).

Pero si se sospecha que el i  -ésimo caso es improbablemente grande, entonces tampoco estaría distribuido normalmente. Por lo tanto, es prudente excluir la i  -ésima observación del proceso de estimación de la varianza cuando se está considerando si el i-  ésimo caso puede ser un valor atípico, y en su lugar utilizar el residuo estudentizado externo , que es

σ ^ ( i ) 2 = 1 n m 1 j = 1 j i n ε ^ j 2 , {\displaystyle {\widehat {\sigma }}_{(i)}^{2}={1 \over n-m-1}\sum _{\begin{smallmatrix}j=1\\j\neq i\end{smallmatrix}}^{n}{\widehat {\varepsilon \,}}_{j}^{\,2},}

Basado en todos los residuos excepto el i- ésimo residuo sospechoso  . Aquí se debe enfatizar que para el i-ésimo caso sospechoso se calculan excluyendo el i-  ésimo caso. ε ^ j 2 ( j i ) {\displaystyle {\widehat {\varepsilon \,}}_{j}^{\,2}(j\neq i)}

Si la estimación σ 2 incluye el i  -ésimo caso, entonces se denomina residuo interno estudentizado (también conocido como residuo estandarizado [1] ) . Si en cambio se utiliza la estimación excluyendo el i  -ésimo caso, entonces se denomina residuo externo estudentizado . t i {\displaystyle t_{i}} σ ^ ( i ) 2 {\displaystyle {\widehat {\sigma }}_{(i)}^{2}} t i ( i ) {\displaystyle t_{i(i)}}

Distribución

Si los errores son independientes y se distribuyen normalmente con valor esperado 0 y varianza σ 2 , entonces la distribución de probabilidad del i ésimo residuo estudentizado externamente es una distribución t de Student con n  −  m  − 1 grados de libertad , y puede variar de a . t i ( i ) {\displaystyle t_{i(i)}} {\displaystyle \scriptstyle -\infty } + {\displaystyle \scriptstyle +\infty }

Por otra parte, los residuos estudentizados internamente están en el rango , donde ν = n  −  m es el número de grados de libertad de los residuos. Si t i representa el residuo estudentizado internamente, y nuevamente asumiendo que los errores son variables gaussianas independientes idénticamente distribuidas, entonces: [2] 0 ± ν {\displaystyle \scriptstyle 0\,\pm \,{\sqrt {\nu }}}

t i ν t t 2 + ν 1 {\displaystyle t_{i}\sim {\sqrt {\nu }}{t \over {\sqrt {t^{2}+\nu -1}}}}

donde t es una variable aleatoria distribuida como distribución t de Student con ν  − 1 grados de libertad. De hecho, esto implica que t i 2 / ν sigue la distribución beta B (1/2,( ν  − 1)/2). La distribución anterior a veces se denomina distribución tau ; [2] fue derivada por primera vez por Thompson en 1935. [3]

Cuando ν = 3, los residuos internos estudentizados se distribuyen uniformemente entre y . Si solo hay un grado de libertad residual, la fórmula anterior para la distribución de residuos internos estudentizados no se aplica. En este caso, los t i son todos +1 o −1, con un 50 % de probabilidad para cada uno. 3 {\displaystyle \scriptstyle -{\sqrt {3}}} + 3 {\displaystyle \scriptstyle +{\sqrt {3}}}

La desviación estándar de la distribución de residuos internos estudentizados es siempre 1, pero esto no implica que la desviación estándar de todos los t i de un experimento particular sea 1. Por ejemplo, los residuos internos estudentizados al ajustar una línea recta que pasa por (0, 0) hasta los puntos (1, 4), (2, −1), (2, −1) son , y la desviación estándar de estos no es 1. 2 ,   5 / 5 ,   5 / 5 {\displaystyle {\sqrt {2}},\ -{\sqrt {5}}/5,\ -{\sqrt {5}}/5}

Tenga en cuenta que cualquier par de residuos estudentizados t i y t j (donde ), NO son iid. Tienen la misma distribución, pero no son independientes debido a las restricciones sobre los residuos que deben sumar 0 y ser ortogonales a la matriz de diseño. i j {\displaystyle i\neq j}

Implementaciones de software

Muchos programas y paquetes de estadísticas, como R , Python , etc., incluyen implementaciones de residuos estudentizados.

Idioma/ProgramaFunciónNotas
Rrstandard(model, ...)estudentizado internamente. Véase [2]
Rrstudent(model, ...)estudentizado externamente. Véase [3]


Véase también

Referencias

  1. ^ Diagnóstico de eliminación de regresión R docs
  2. ^ ab Allen J. Pope (1976), "Las estadísticas de los residuos y la detección de valores atípicos", Departamento de Comercio de los Estados Unidos, Administración Nacional Oceánica y Atmosférica, National Ocean Survey, Laboratorio de Investigación y Desarrollo Geodésico, 136 páginas, [1], eq.(6)
  3. ^ Thompson, William R. (1935). "Sobre un criterio para el rechazo de observaciones y la distribución de la razón de la desviación con respecto a la desviación estándar de la muestra". Anales de estadística matemática . 6 (4): 214–219. doi : 10.1214/aoms/1177732567 .

Lectura adicional

  • Cook, R. Dennis; Weisberg, Sanford (1982). Residuos e influencia en la regresión (edición revisada). Nueva York: Chapman and Hall . ISBN 041224280X. Recuperado el 23 de febrero de 2013 .
Retrieved from "https://en.wikipedia.org/w/index.php?title=Studentized_residual&oldid=1248474784"