Algoritmo de puntuación

El algoritmo de puntuación , también conocido como puntuación de Fisher , [1] es una forma del método de Newton utilizado en estadística para resolver numéricamente ecuaciones de máxima verosimilitud y lleva el nombre de Ronald Fisher .

Esquema de derivación

Sean variables aleatorias , independientes e idénticamente distribuidas con función de densidad de probabilidad dos veces diferenciable , y deseamos calcular el estimador de máxima verosimilitud (EMV) de . Primero, supongamos que tenemos un punto de partida para nuestro algoritmo , y consideramos una expansión de Taylor de la función de puntuación , , sobre : Y 1 , , Y norte {\displaystyle Y_{1},\ldots ,Y_{n}} F ( y ; θ ) {\displaystyle f(y;\theta )} θ {\displaystyle \theta ^{*}} θ {\estilo de visualización \theta} θ 0 {\displaystyle \theta_{0}} V ( θ ) {\displaystyle V(\theta )} θ 0 {\displaystyle \theta_{0}}

V ( θ ) V ( θ 0 ) Yo ( θ 0 ) ( θ θ 0 ) , {\displaystyle V(\theta )\approx V(\theta _{0})-{\mathcal {J}}(\theta _{0})(\theta -\theta _{0}),\,}

dónde

Yo ( θ 0 ) = i = 1 norte | θ = θ 0 registro F ( Y i ; θ ) {\displaystyle {\mathcal {J}}(\theta _{0})=-\sum _{i=1}^{n}\left.\nabla \nabla ^{\top }\right|_{\theta =\theta _{0}}\log f(Y_{i};\theta )}

es la matriz de información observada en . Ahora, si fijamos , usamos eso y reorganizamos, obtenemos: θ 0 {\displaystyle \theta_{0}} θ = θ {\displaystyle \theta =\theta ^{*}} V ( θ ) = 0 {\displaystyle V(\theta ^{*})=0}

θ θ 0 + Yo 1 ( θ 0 ) V ( θ 0 ) . {\displaystyle \theta ^{*}\approx \theta _{0}+{\mathcal {J}}^{-1}(\theta _{0})V(\theta _{0}).\,}

Por lo tanto, utilizamos el algoritmo

θ metro + 1 = θ metro + Yo 1 ( θ metro ) V ( θ metro ) , {\displaystyle \theta _{m+1}=\theta _{m}+{\mathcal {J}}^{-1}(\theta _{m})V(\theta _{m}),\,}

y bajo ciertas condiciones de regularidad, se puede demostrar que . θ metro θ {\displaystyle \theta _{m}\rightarrow \theta ^{*}}

Puntuación de Fisher

En la práctica, normalmente se reemplaza por , la información de Fisher , lo que nos da el algoritmo de puntuación de Fisher : Yo ( θ ) {\displaystyle {\mathcal {J}}(\theta )} I ( θ ) = mi [ Yo ( θ ) ] {\displaystyle {\mathcal {I}}(\theta )=\mathrm {E} [{\mathcal {J}}(\theta )]}

θ metro + 1 = θ metro + I 1 ( θ metro ) V ( θ metro ) {\displaystyle \theta _{m+1}=\theta _{m}+{\mathcal {I}}^{-1}(\theta _{m})V(\theta _{m})} ..

En ciertas condiciones de regularidad, si es un estimador consistente , entonces (la corrección después de un solo paso) es "óptima" en el sentido de que su distribución de error es asintóticamente idéntica a la de la verdadera estimación de máxima verosimilitud. [2] θ metro {\displaystyle \theta_{m}} θ metro + 1 estilo de visualización {\theta_{m+1}}

Véase también

Referencias

  1. ^ Longford, Nicholas T. (1987). "Un algoritmo de puntuación rápida para la estimación de máxima verosimilitud en modelos mixtos no balanceados con efectos aleatorios anidados". Biometrika . 74 (4): 817–827. doi :10.1093/biomet/74.4.817.
  2. ^ Li, Bing; Babu, G. Jogesh (2019), "Inferencia bayesiana", Springer Texts in Statistics , Nueva York, NY: Springer New York, Teorema 9.4, doi :10.1007/978-1-4939-9761-9_6, ISBN 978-1-4939-9759-6, S2CID  239322258 , consultado el 3 de enero de 2023

Lectura adicional

  • Jennrich, RI y Sampson, PF (1976). "Newton-Raphson y algoritmos relacionados para la estimación de componentes de varianza de máxima verosimilitud". Technometrics . 18 (1): 11–17. doi :10.1080/00401706.1976.10489395 (inactivo el 1 de noviembre de 2024). JSTOR  1267911.{{cite journal}}: CS1 maint: DOI inactivo a partir de noviembre de 2024 ( enlace )
Obtenido de "https://es.wikipedia.org/w/index.php?title=Algoritmo_de_puntuación&oldid=1254967221"