Mínimos cuadrados reponderados iterativamente

Método para resolver ciertos problemas de optimización

El método de mínimos cuadrados iterativamente reponderados ( IRLS ) se utiliza para resolver ciertos problemas de optimización con funciones objetivo de la forma de una p -norma :

a r g m i n β i = 1 n | y i f i ( β ) | p , {\displaystyle \mathop {\operatorname {arg\,min} } _{\boldsymbol {\beta }}\sum _{i=1}^{n}{\big |}y_{i}-f_{i}({\boldsymbol {\beta }}){\big |}^{p},}

mediante un método iterativo en el que cada paso implica resolver un problema de mínimos cuadrados ponderados de la forma: [1]

β ( t + 1 ) = a r g m i n β i = 1 n w i ( β ( t ) ) | y i f i ( β ) | 2 . {\displaystyle {\boldsymbol {\beta }}^{(t+1)}={\underset {\boldsymbol {\beta }}{\operatorname {arg\,min} }}\sum _{i=1}^{n}w_{i}({\boldsymbol {\beta }}^{(t)}){\big |}y_{i}-f_{i}({\boldsymbol {\beta }}){\big |}^{2}.}

IRLS se utiliza para encontrar las estimaciones de máxima verosimilitud de un modelo lineal generalizado y, en regresión robusta , para encontrar un estimador M , como una forma de mitigar la influencia de valores atípicos en un conjunto de datos distribuido normalmente, por ejemplo, minimizando los errores absolutos mínimos en lugar de los errores de mínimos cuadrados .

Una de las ventajas de IRLS sobre la programación lineal y la programación convexa es que se puede utilizar con los algoritmos numéricos de Gauss-Newton y Levenberg-Marquardt .

Ejemplos

yo1minimización para recuperación dispersa

El IRLS se puede utilizar para la minimización de ℓ 1 y la minimización suavizada de ℓ p , p  < 1, en problemas de detección comprimida . Se ha demostrado que el algoritmo tiene una tasa de convergencia lineal para la norma 1 y superlineal para t con t  < 1, bajo la propiedad de isometría restringida , que generalmente es una condición suficiente para soluciones dispersas. [2] [3]

L pregresión lineal normal

Para encontrar los parámetros β  = ( β 1 , …, β k ) T que minimizan la norma L p para el problema de regresión lineal ,

a r g m i n β y X β p = a r g m i n β i = 1 n | y i X i β | p , {\displaystyle {\underset {\boldsymbol {\beta }}{\operatorname {arg\,min} }}{\big \|}\mathbf {y} -X{\boldsymbol {\beta }}\|_{p}={\underset {\boldsymbol {\beta }}{\operatorname {arg\,min} }}\sum _{i=1}^{n}\left|y_{i}-X_{i}{\boldsymbol {\beta }}\right|^{p},}

El algoritmo IRLS en el paso t  + 1 implica resolver el problema de mínimos cuadrados lineales ponderados : [4]

β ( t + 1 ) = a r g m i n β i = 1 n w i ( t ) | y i X i β | 2 = ( X T W ( t ) X ) 1 X T W ( t ) y , {\displaystyle {\boldsymbol {\beta }}^{(t+1)}={\underset {\boldsymbol {\beta }}{\operatorname {arg\,min} }}\sum _{i=1}^{n}w_{i}^{(t)}\left|y_{i}-X_{i}{\boldsymbol {\beta }}\right|^{2}=(X^{\rm {T}}W^{(t)}X)^{-1}X^{\rm {T}}W^{(t)}\mathbf {y} ,}

donde W ( t ) es la matriz diagonal de pesos, generalmente con todos los elementos establecidos inicialmente en:

w i ( 0 ) = 1 {\displaystyle w_{i}^{(0)}=1}

y se actualiza después de cada iteración a:

w i ( t ) = | y i X i β ( t ) | p 2 . {\displaystyle w_{i}^{(t)}={\big |}y_{i}-X_{i}{\boldsymbol {\beta }}^{(t)}{\big |}^{p-2}.}

En el caso p  = 1, esto corresponde a la regresión de desviación mínima absoluta (en este caso, el problema se abordaría mejor mediante el uso de métodos de programación lineal , [5] por lo que el resultado sería exacto) y la fórmula es:

w i ( t ) = 1 | y i X i β ( t ) | . {\displaystyle w_{i}^{(t)}={\frac {1}{{\big |}y_{i}-X_{i}{\boldsymbol {\beta }}^{(t)}{\big |}}}.}

Para evitar dividir por cero se debe realizar una regularización , por lo que en la práctica la fórmula es:

w i ( t ) = 1 max { δ , | y i X i β ( t ) | } . {\displaystyle w_{i}^{(t)}={\frac {1}{\max \left\{\delta ,\left|y_{i}-X_{i}{\boldsymbol {\beta }}^{(t)}\right|\right\}}}.}

donde es un valor pequeño, como 0,0001. [5] Nótese que el uso de en la función de ponderación es equivalente a la función de pérdida de Huber en la estimación robusta. [6] δ {\displaystyle \delta } δ {\displaystyle \delta }

Véase también

Notas

  1. ^ C. Sidney Burrus, Mínimos cuadrados reponderados iterativos
  2. ^ Chartrand, R.; Yin, W. (31 de marzo – 4 de abril de 2008). "Algoritmos iterativamente reponderados para detección compresiva". IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2008. págs. 3869–3872. doi :10.1109/ICASSP.2008.4518498.
  3. ^ Daubechies, I.; Devore, R.; Fornasier, M.; Güntürk, CSN (2010). "Minimización de mínimos cuadrados reponderados iterativamente para recuperación dispersa". Communications on Pure and Applied Mathematics . 63 : 1–38. arXiv : 0807.0575 . doi :10.1002/cpa.20303.
  4. ^ Gentle, James (2007). "6.8.1 Soluciones que minimizan otras normas de los residuos". Álgebra matricial . Springer Texts in Statistics. Nueva York: Springer. doi :10.1007/978-0-387-70873-7. ISBN 978-0-387-70872-0.
  5. ^ de William A. Pfeil, Material didáctico estadístico , tesis de licenciatura en Ciencias, Instituto Politécnico de Worcester , 2006
  6. ^ Fox, J.; Weisberg, S. (2013), Regresión robusta , Notas del curso, Universidad de Minnesota

Referencias

  • Métodos numéricos para problemas de mínimos cuadrados por Åke Björck (Capítulo 4: Problemas de mínimos cuadrados generalizados).
  • Mínimos cuadrados prácticos para gráficos por computadora. Curso SIGGRAPH 11
  • Resolver sistemas lineales subdeterminados de forma iterativa
Retrieved from "https://en.wikipedia.org/w/index.php?title=Iteratively_reweighted_least_squares&oldid=1227188021"