Propiedad estadística que debe satisfacer un modelo para permitir una inferencia precisa
En estadística , la identificabilidad es una propiedad que debe satisfacer un modelo para que sea posible realizar una inferencia precisa. Un modelo es identificable si es teóricamente posible conocer los valores verdaderos de los parámetros subyacentes de este modelo después de obtener un número infinito de observaciones de él. Matemáticamente, esto equivale a decir que los diferentes valores de los parámetros deben generar diferentes distribuciones de probabilidad de las variables observables. Por lo general, el modelo solo es identificable bajo ciertas restricciones técnicas, en cuyo caso el conjunto de estos requisitos se denomina condiciones de identificación .
Un modelo que no es identificable se dice que es no identificable o no identificable : dos o más parametrizaciones son observacionalmente equivalentes . En algunos casos, aunque un modelo no sea identificable, aún es posible conocer los valores verdaderos de un cierto subconjunto de los parámetros del modelo. En este caso decimos que el modelo es parcialmente identificable . En otros casos puede ser posible conocer la ubicación del parámetro verdadero hasta una cierta región finita del espacio de parámetros, en cuyo caso el modelo se establece como identificable .
Además de la exploración estrictamente teórica de las propiedades del modelo, la identificabilidad puede considerarse en un ámbito más amplio cuando un modelo se prueba con conjuntos de datos experimentales, utilizando el análisis de identificabilidad . [1]
Definición
Sea un modelo estadístico con espacio de parámetros . Decimos que es identificable si la aplicación es biunívoca : [2]
Esta definición significa que valores distintos de θ deben corresponder a distribuciones de probabilidad distintas: si θ 1 ≠ θ 2 , entonces también P θ 1 ≠ P θ 2 . [3] Si las distribuciones se definen en términos de funciones de densidad de probabilidad (pdf), entonces dos pdf deben considerarse distintas solo si difieren en un conjunto de medidas distintas de cero (por ejemplo, dos funciones ƒ 1 ( x ) = 1 0 ≤ x < 1 y ƒ 2 ( x ) = 1 0 ≤ x ≤ 1 difieren solo en un único punto x = 1 —un conjunto de medidas cero— y, por lo tanto, no pueden considerarse como pdf distintas).
La identificabilidad del modelo en el sentido de invertibilidad de la función es equivalente a poder conocer el parámetro verdadero del modelo si el modelo puede ser observado indefinidamente. De hecho, si { X t } ⊆ S es la secuencia de observaciones del modelo, entonces por la ley fuerte de los grandes números ,
para cada conjunto medible A ⊆ S (aquí 1 {...} es la función indicadora ). Por lo tanto, con un número infinito de observaciones podremos encontrar la distribución de probabilidad verdadera P 0 en el modelo, y dado que la condición de identificabilidad anterior requiere que el mapa sea invertible, también podremos encontrar el valor verdadero del parámetro que generó la distribución dada P 0 .
Esta expresión es igual a cero para casi todos los x solo cuando todos sus coeficientes son iguales a cero, lo que solo es posible cuando | σ 1 | = | σ 2 | y μ 1 = μ 2 . Dado que en la escala el parámetro σ está restringido a ser mayor que cero, concluimos que el modelo es identificable: ƒ θ 1 = ƒ θ 2 ⇔ θ 1 = θ 2 .
(donde ′ denota la matriz transpuesta ). Entonces, el parámetro β es identificable si y solo si la matriz es invertible. Por lo tanto, esta es la condición de identificación en el modelo.
donde ( ε , η , x* ) son variables aleatorias independientes normales conjuntas con valor esperado cero y varianzas desconocidas, y solo se observan las variables ( x , y ). Entonces este modelo no es identificable, [4] solo lo es el producto βσ² ∗ (donde σ² ∗ es la varianza del regresor latente x* ). Este también es un ejemplo de un modelo identificable por conjuntos : aunque no se puede aprender el valor exacto de β , podemos garantizar que debe estar en algún lugar del intervalo ( β yx , 1÷ β xy ), donde β yx es el coeficiente en la regresión MCO de y sobre x , y β xy es el coeficiente en la regresión MCO de x sobre y . [5]
Si abandonamos el supuesto de normalidad y requerimos que x* no se distribuya normalmente, conservando solo la condición de independencia ε ⊥ η ⊥ x* , entonces el modelo se vuelve identificable. [4]
^ Raue, A.; Kreutz, C.; Maiwald, T.; Bachmann, J.; Schilling, M.; Klingmuller, U.; Timmer, J. (1 de agosto de 2009). "Análisis de identificabilidad estructural y práctica de modelos dinámicos parcialmente observados mediante la explotación de la verosimilitud del perfil". Bioinformática . 25 (15): 1923–1929. doi : 10.1093/bioinformatics/btp358 . PMID 19505944.
Reiersøl, Olav (1950), "Identificabilidad de una relación lineal entre variables sujetas a error", Econometrica , 18 (4): 375–389, doi :10.2307/1907835, JSTOR 1907835
Walter, É. ; Pronzato, L. (1997), Identificación de modelos paramétricos a partir de datos experimentales , Springer
Econometría
Lewbel, Arthur (1 de diciembre de 2019). "El zoológico de la identificación: significados de la identificación en econometría". Revista de literatura económica . 57 (4). Asociación Económica Estadounidense: 835–903. doi :10.1257/jel.20181361. ISSN 0022-0515. S2CID 125792293.
Matzkin, Rosa L. (2013). "Identificación no paramétrica en modelos económicos estructurales". Revista Anual de Economía . 5 (1): 457–486. doi :10.1146/annurev-economics-082912-110231.
Rothenberg, Thomas J. (1971). "Identificación en modelos paramétricos". Econometrica . 39 (3): 577–591. doi :10.2307/1913267. ISSN 0012-9682. JSTOR 1913267.