Transformada integral de probabilidad

Funcionamiento de la teoría de la probabilidad

En teoría de probabilidad , la transformación integral de probabilidad (también conocida como universalidad del uniforme ) se relaciona con el resultado de que los valores de datos que se modelan como variables aleatorias de cualquier distribución continua dada se pueden convertir en variables aleatorias que tienen una distribución uniforme estándar . [1] Esto se cumple exactamente siempre que la distribución que se utilice sea la distribución verdadera de las variables aleatorias; si la distribución se ajusta a los datos, el resultado se mantendrá aproximadamente en muestras grandes.

El resultado a veces se modifica o amplía de modo que el resultado de la transformación sea una distribución estándar distinta de la distribución uniforme, como la distribución exponencial .

La transformación fue introducida por Ronald Fisher en su edición de 1932 del libro Métodos estadísticos para investigadores . [2]

Aplicaciones

Un uso de la transformación integral de probabilidad en el análisis estadístico de datos es proporcionar la base para probar si un conjunto de observaciones puede modelarse razonablemente como si surgieran de una distribución específica. En concreto, la transformación integral de probabilidad se aplica para construir un conjunto equivalente de valores y, a continuación, se realiza una prueba para determinar si una distribución uniforme es apropiada para el conjunto de datos construido. Algunos ejemplos de esto son los gráficos P–P y las pruebas de Kolmogorov–Smirnov .

Un segundo uso de la transformación se encuentra en la teoría relacionada con las cópulas , que son un medio para definir y trabajar con distribuciones para datos multivariados estadísticamente dependientes. Aquí, el problema de definir o manipular una distribución de probabilidad conjunta para un conjunto de variables aleatorias se simplifica o reduce en aparente complejidad al aplicar la transformación integral de probabilidad a cada uno de los componentes y luego trabajar con una distribución conjunta para la cual las variables marginales tienen distribuciones uniformes.

Un tercer uso se basa en aplicar la inversa de la transformada integral de probabilidad para convertir variables aleatorias de una distribución uniforme a una distribución seleccionada: esto se conoce como muestreo por transformada inversa .

Declaración

Supongamos que una variable aleatoria tiene una distribución continua para la cual la función de distribución acumulativa (CDF) es Entonces la variable aleatoria definida como incógnita {\estilo de visualización X} F incógnita . {\estilo de visualización F_{X}.} Y {\estilo de visualización Y}

Y := F incógnita ( incógnita ) , {\displaystyle Y:=F_{X}(X)\,,}

tiene una distribución uniforme estándar . [1] [3]

De manera equivalente, si es la medida uniforme en , la distribución de en es la medida de empuje hacia adelante . micras {\estilo de visualización \mu} [ 0 , 1 ] {\estilo de visualización [0,1]} incógnita {\estilo de visualización X} R {\displaystyle \mathbb {R}} micras F incógnita 1 {\displaystyle \mu \circ F_{X}^{-1}}

Prueba

Dada cualquier variable aleatoria continua , defina . Dado , si existe (es decir, si existe un único tal que ), entonces: incógnita {\estilo de visualización X} Y = F incógnita ( incógnita ) Estilo de visualización Y=F_{X}(X)} y [ 0 , 1 ] {\displaystyle y\in [0,1]} F incógnita 1 ( y ) Estilo de visualización F_{X}^{-1}(y)} incógnita {\estilo de visualización x} F incógnita ( incógnita ) = y Estilo de visualización F_{X}(x)=y}

F Y ( y ) = PAG ( Y y ) = PAG ( F incógnita ( incógnita ) y ) = PAG ( incógnita F incógnita 1 ( y ) ) = F incógnita ( F incógnita 1 ( y ) ) = y {\displaystyle {\begin{aligned}F_{Y}(y)&=\nombre del operador {P} (Y\leq y)\\&=\nombre del operador {P} (F_{X}(X)\leq y)\\&=\nombre del operador {P} (X\leq F_{X}^{-1}(y))\\&=F_{X}(F_{X}^{-1}(y))\\&=y\end{aligned}}}

Si no existe, entonces puede reemplazarse en esta prueba por la función , donde definimos , , y para , con el mismo resultado que . Por lo tanto, es simplemente la CDF de una variable aleatoria, de modo que tiene una distribución uniforme en el intervalo . F incógnita 1 ( y ) Estilo de visualización F_{X}^{-1}(y)} χ {\estilo de visualización \chi} χ ( 0 ) = {\displaystyle \chi(0)=-\infty} χ ( 1 ) = {\displaystyle \chi (1)=\infty} χ ( y ) información { incógnita : F incógnita ( incógnita ) y } {\displaystyle \chi (y)\equiv \inf\{x:F_{X}(x)\geq y\}} y ( 0 , 1 ) {\displaystyle y\in (0,1)} F Y ( y ) = y {\displaystyle F_{Y}(y)=y} F Y Estilo de visualización F_ {Y}} norte i F o a metro ( 0 , 1 ) {\displaystyle \mathrm {Uniforme} (0,1)} Y {\estilo de visualización Y} [ 0 , 1 ] {\estilo de visualización [0,1]}

Ejemplos

Para un primer ejemplo ilustrativo, supongamos que una variable aleatoria tiene una distribución normal estándar . Entonces su CDF es incógnita {\estilo de visualización X} norte ( 0 , 1 ) {\displaystyle {\mathcal {N}}(0,1)}

Φ ( incógnita ) = 1 2 π incógnita mi a 2 / 2 d a = 1 2 [ 1 + campo ( incógnita 2 ) ] , incógnita R , {\displaystyle \Phi(x)={\frac {1}{\sqrt {2\pi }}}\int _{-\infty }^{x}{\rm {e}}^{-t^{2}/2}\,{\rm {d}}t={\frac {1}{2}}{\Big[}\,1+\operatorname {erf} {\Big(}{\frac {x}{\sqrt {2}}}{\Big )}\,{\Big ]},\quad x\in \mathbb {R} ,\,}

donde es la función de error . Entonces la nueva variable aleatoria definida por se distribuye uniformemente. campo ( ) , {\displaystyle \operatorname {erf} (),} Y , {\estilo de visualización Y,} Y := Φ ( incógnita ) , {\displaystyle Y:=\Phi(X),}

Como segundo ejemplo, si tiene una distribución exponencial con media unitaria, entonces su CDF es incógnita {\estilo de visualización X}

F ( incógnita ) = 1 exp ( incógnita ) , {\displaystyle F(x)=1-\exp(-x),}

y el resultado inmediato de la transformación integral de probabilidad es que

Y = 1 exp ( incógnita ) {\displaystyle Y=1-\exp(-X)}

tiene una distribución uniforme. Además, por simetría de la distribución uniforme,

O = exp ( incógnita ) {\displaystyle Z=\exp(-X)}

También tiene una distribución uniforme.

Véase también

Referencias

  1. ^ ab Dodge, Y. (2006) Diccionario Oxford de términos estadísticos , Oxford University Press
  2. ^ David, FN; Johnson, NL (1948). "La transformación integral de probabilidad cuando los parámetros se estiman a partir de la muestra". Biometrika . 35 (1/2): 182. doi :10.2307/2332638. JSTOR  2332638.
  3. ^ Casella, George; Berger, Roger L. (2002). Inferencia estadística (2.ª ed.). Teorema 2.1.10, pág. 54.
Obtenido de "https://es.wikipedia.org/w/index.php?title=Transformada_integral_de_probabilidad&oldid=1187702177"