Distribución de probabilidad compuesta

En probabilidad y estadística , una distribución de probabilidad compuesta (también conocida como distribución de mezcla o distribución contagiosa ) es la distribución de probabilidad que resulta de suponer que una variable aleatoria se distribuye de acuerdo con alguna distribución parametrizada, siendo (algunos de) los parámetros de esa distribución variables aleatorias. Si el parámetro es un parámetro de escala , la mezcla resultante también se denomina mezcla de escala .

La distribución compuesta ("distribución incondicional") es el resultado de marginalizar (integrar) las variables aleatorias latentes que representan los parámetros de la distribución parametrizada ("distribución condicional").

Definición

Una distribución de probabilidad compuesta es la distribución de probabilidad que resulta de suponer que una variable aleatoria se distribuye de acuerdo con alguna distribución parametrizada con un parámetro desconocido que a su vez se distribuye de acuerdo con alguna otra distribución . Se dice que la distribución resultante es la distribución que resulta de la composición con . La distribución del parámetro también se denomina distribución de mezcla o distribución latente . Técnicamente, la distribución incondicional resulta de marginalizar sobre , es decir, de integrar el o los parámetros desconocidos . Su función de densidad de probabilidad está dada por: incógnita {\estilo de visualización X} F {\estilo de visualización F} θ {\estilo de visualización \theta} GRAMO {\estilo de visualización G} yo {\estilo de visualización H} F {\estilo de visualización F} GRAMO {\estilo de visualización G} GRAMO {\estilo de visualización G} yo {\estilo de visualización H} GRAMO {\estilo de visualización G} θ {\estilo de visualización \theta}

pag yo ( incógnita ) = pag F ( incógnita | θ ) pag GRAMO ( θ ) d θ {\displaystyle p_{H}(x)={\displaystyle \int \limits p_{F}(x|\theta )\,p_{G}(\theta )\operatorname {d} \!\theta }}

La misma fórmula se aplica análogamente si algunas o todas las variables son vectores.

De la fórmula anterior se desprende que una distribución compuesta es esencialmente un caso especial de una distribución marginal : La distribución conjunta de y está dada por , y el compuesto resulta como su distribución marginal: . Si el dominio de es discreto, entonces la distribución es nuevamente un caso especial de una distribución mixta . incógnita {\estilo de visualización x} θ {\estilo de visualización \theta} pag ( incógnita , θ ) = pag ( incógnita | θ ) pag ( θ ) {\displaystyle p(x,\theta )=p(x|\theta )p(\theta )} pag ( incógnita ) = pag ( incógnita , θ ) d θ {\displaystyle {\textstyle p(x)=\int p(x,\theta )\nombre del operador {d} \!\theta }} θ {\estilo de visualización \theta}

Propiedades

General

La distribución compuesta dependerá de la expresión específica de cada distribución, así como de qué parámetro de se distribuye según la distribución , y los parámetros de incluirán cualquier parámetro de que no esté marginado o integrado. El soporte de es el mismo que el de , y si este último es una distribución de dos parámetros parametrizada con la media y la varianza, existen algunas propiedades generales. yo {\estilo de visualización H} F {\estilo de visualización F} GRAMO {\estilo de visualización G} yo {\estilo de visualización H} GRAMO {\estilo de visualización G} yo {\estilo de visualización H} F {\estilo de visualización F}

Media y varianza

Los dos primeros momentos de la distribución compuesta están dados por la ley de expectativa total y la ley de varianza total :

mi yo [ incógnita ] = mi GRAMO [ mi F [ incógnita | θ ] ] {\displaystyle \nombreoperador {E} _{H}[X]=\nombreoperador {E} _{G}{\bigl [}\nombreoperador {E} _{F}[X|\theta ]{\bigr ]}}

Variedad yo ( incógnita ) = mi GRAMO [ Variedad F ( incógnita | θ ) ] + Variedad GRAMO ( mi F [ incógnita | θ ] ) {\displaystyle \operatorname {Var} _{H}(X)=\operatorname {E} _{G}{\bigl [}\operatorname {Var} _{F}(X|\theta ){\bigr ]}+\operatorname {Var} _{G}{\bigl (}\operatorname {E} _{F}[X|\theta ]{\bigr )}}

Si la media de se distribuye como , que a su vez tiene media y varianza, las expresiones anteriores implican y , donde es la varianza de . F {\estilo de visualización F} GRAMO {\estilo de visualización G} micras {\estilo de visualización \mu} σ 2 Estilo de visualización: sigma ^{2}} mi yo [ incógnita ] = mi GRAMO [ θ ] = micras {\displaystyle \operatorname {E} _{H}[X]=\operatorname {E} _{G}[\theta ]=\mu } Variedad yo ( incógnita ) = Variedad F ( incógnita | θ ) + Variedad GRAMO ( Y ) = τ 2 + σ 2 {\displaystyle \operatorname {Var} _{H}(X)=\operatorname {Var} _{F}(X|\theta )+\operatorname {Var} _{G}(Y)=\tau ^{2}+\sigma ^{2}} τ 2 {\displaystyle \tau ^{2}} F {\displaystyle F}

Prueba

sean y distribuciones de probabilidad parametrizadas con media a varianza como entonces denotando las funciones de densidad de probabilidad como y respectivamente, y siendo la densidad de probabilidad de tenemos y tenemos de la parametrización y que y por lo tanto la media de la distribución compuesta según la expresión para su primer momento anterior. F {\displaystyle F} G {\displaystyle G} x F ( θ , τ 2 ) θ G ( μ , σ 2 ) {\displaystyle {\begin{aligned}x&\sim {\mathcal {F}}(\theta ,\tau ^{2})\\\theta &\sim {\mathcal {G}}(\mu ,\sigma ^{2})\end{aligned}}} f ( x | θ ) = p F ( x | θ ) {\displaystyle f(x|\theta )=p_{F}(x|\theta )} g ( θ ) = p G ( θ ) {\displaystyle g(\theta )=p_{G}(\theta )} h ( x ) {\displaystyle h(x)} H {\displaystyle H} E H [ X ] = F x h ( x ) d x = F x G f ( x | θ ) g ( θ ) d θ d x = G F x f ( x | θ ) d x   g ( θ ) d θ = G E F [ X | θ ] g ( θ ) d θ {\displaystyle {\begin{aligned}\operatorname {E} _{H}[X]=\int _{F}xh(x)dx&=\int _{F}x\int _{G}f(x|\theta )g(\theta )d\theta dx\\&=\int _{G}\int _{F}xf(x|\theta )dx\ g(\theta )d\theta \\&=\int _{G}\operatorname {E} _{F}[X|\theta ]g(\theta )d\theta \end{aligned}}} F {\displaystyle {\mathcal {F}}} G {\displaystyle {\mathcal {G}}} E F [ X | θ ] = F x f ( x | θ ) d x = θ E G [ θ ] = G θ g ( θ ) d θ = μ {\displaystyle {\begin{aligned}\operatorname {E} _{F}[X|\theta ]&=\int _{F}xf(x|\theta )dx=\theta \\\operatorname {E} _{G}[\theta ]&=\int _{G}\theta g(\theta )d\theta =\mu \end{aligned}}} E H [ X ] = μ {\displaystyle \operatorname {E} _{H}[X]=\mu }


La varianza de está dada por , y dado el hecho de que y . Finalmente obtenemos H {\displaystyle H} E H [ X 2 ] ( E H [ X ] ) 2 {\displaystyle \operatorname {E} _{H}[X^{2}]-(\operatorname {E} _{H}[X])^{2}} E H [ X 2 ] = F x 2 h ( x ) d x = F x 2 G f ( x | θ ) g ( θ ) d θ d x = G g ( θ ) F x 2 f ( x | θ ) d x   d θ = G g ( θ ) ( τ 2 + θ 2 ) d θ = τ 2 G g ( θ ) d θ + G g ( θ ) θ 2 d θ = τ 2 + ( σ 2 + μ 2 ) , {\displaystyle {\begin{aligned}\operatorname {E} _{H}[X^{2}]=\int _{F}x^{2}h(x)dx&=\int _{F}x^{2}\int _{G}f(x|\theta )g(\theta )d\theta dx\\&=\int _{G}g(\theta )\int _{F}x^{2}f(x|\theta )dx\ d\theta \\&=\int _{G}g(\theta )(\tau ^{2}+\theta ^{2})d\theta \\&=\tau ^{2}\int _{G}g(\theta )d\theta +\int _{G}g(\theta )\theta ^{2}d\theta \\&=\tau ^{2}+(\sigma ^{2}+\mu ^{2}),\end{aligned}}} F x 2 f ( x θ ) d x = E F [ X 2 θ ] = Var F ( X θ ) + ( E F [ X θ ] ) 2 {\displaystyle \int _{F}x^{2}f(x\mid \theta )dx=\operatorname {E} _{F}[X^{2}\mid \theta ]=\operatorname {Var} _{F}(X\mid \theta )+(\operatorname {E} _{F}[X\mid \theta ])^{2}} G θ 2 g ( θ ) d θ = E G [ θ 2 ] = Var G ( θ ) + ( E G [ θ ] ) 2 {\displaystyle \int _{G}\theta ^{2}g(\theta )d\theta =\operatorname {E} _{G}[\theta ^{2}]=\operatorname {Var} _{G}(\theta )+(\operatorname {E} _{G}[\theta ])^{2}} Var H ( X ) = E H [ X 2 ] ( E H [ X ] ) 2 = τ 2 + σ 2 {\displaystyle {\begin{aligned}\operatorname {Var} _{H}(X)&=\operatorname {E} _{H}[X^{2}]-(\operatorname {E} _{H}[X])^{2}\\&=\tau ^{2}+\sigma ^{2}\end{aligned}}}

Aplicaciones

Pruebas

Las distribuciones de estadísticas de prueba comunes resultan como distribuciones compuestas bajo su hipótesis nula, por ejemplo en la prueba t de Student (donde la estadística de prueba resulta como la relación entre una variable aleatoria normal y una variable aleatoria de chi-cuadrado ), o en la prueba F (donde la estadística de prueba es la relación de dos variables aleatorias de chi-cuadrado ).

Modelado de sobredispersión

Las distribuciones compuestas son útiles para modelar resultados que exhiben sobredispersión , es decir, una mayor cantidad de variabilidad de la que se esperaría bajo un determinado modelo. Por ejemplo, los datos de conteo se modelan comúnmente utilizando la distribución de Poisson , cuya varianza es igual a su media. La distribución se puede generalizar permitiendo la variabilidad en su parámetro de tasa , implementado a través de una distribución gamma , que da como resultado una distribución binomial negativa marginal . Esta distribución es similar en su forma a la distribución de Poisson, pero permite varianzas mayores. De manera similar, una distribución binomial se puede generalizar para permitir una variabilidad adicional al combinarla con una distribución beta para su parámetro de probabilidad de éxito, lo que da como resultado una distribución beta-binomial .

Inferencia bayesiana

Además de las distribuciones marginales ubicuas que pueden verse como casos especiales de distribuciones compuestas, en la inferencia bayesiana , las distribuciones compuestas surgen cuando, en la notación anterior, F representa la distribución de observaciones futuras y G es la distribución posterior de los parámetros de F , dada la información en un conjunto de datos observados. Esto da una distribución predictiva posterior . En consecuencia, para la distribución predictiva previa , F es la distribución de un nuevo punto de datos mientras que G es la distribución previa de los parámetros.

Circunvolución

La convolución de distribuciones de probabilidad (para derivar la distribución de probabilidad de sumas de variables aleatorias) también puede verse como un caso especial de composición; aquí la distribución de la suma resulta esencialmente de considerar un sumando como un parámetro de ubicación aleatoria para el otro sumando. [1]

Cálculo

Las distribuciones compuestas derivadas de distribuciones de familias exponenciales suelen tener una forma cerrada. Si no es posible la integración analítica, pueden ser necesarios métodos numéricos.

Las distribuciones compuestas se pueden investigar con relativa facilidad utilizando métodos de Monte Carlo , es decir, generando muestras aleatorias. A menudo es fácil generar números aleatorios a partir de las distribuciones y luego utilizarlos para realizar un muestreo de Gibbs colapsado para generar muestras de . p ( θ ) {\displaystyle p(\theta )} p ( x | θ ) {\displaystyle p(x|\theta )} p ( x ) {\displaystyle p(x)}

Una distribución compuesta también puede ser aproximada en un grado suficiente por una distribución de mezcla usando un número finito de componentes de mezcla, lo que permite derivar una densidad aproximada, una función de distribución, etc. [1]

La estimación de parámetros ( estimación de máxima verosimilitud o estimación máxima a posteriori ) dentro de un modelo de distribución compuesto a veces se puede simplificar utilizando el algoritmo EM . [2]

Ejemplos

Términos similares

El concepto de "distribución compuesta" que se utiliza, por ejemplo, en la definición de una distribución de Poisson compuesta o un proceso de Poisson compuesto es diferente de la definición que se encuentra en este artículo. El significado que se da en este artículo corresponde al que se utiliza, por ejemplo, en el modelado jerárquico bayesiano .

El caso especial de distribuciones de probabilidad compuestas donde la distribución parametrizada es la distribución de Poisson también se denomina distribución de Poisson mixta . F {\displaystyle F}

Véase también

Referencias

  1. ^ ab Röver, C.; Friede, T. (2017). "Aproximación discreta de una distribución de mezcla mediante divergencia restringida". Revista de estadística computacional y gráfica . 26 (1): 217–222. arXiv : 1602.04060 . doi : 10.1080/10618600.2016.1276840 .
  2. ^ Gelman, A.; Carlin, JB; Stern, H.; Rubin, DB (1997). "9.5 Hallazgo de modos posteriores marginales utilizando EM y algoritmos relacionados ". Análisis de datos bayesianos (1.ª ed.). Boca Raton: Chapman & Hall / CRC. pág. 276.
  3. ^ ab Lee, SX; McLachlan, GJ (2019). "Distribución de mezcla de escala". Wiley StatsRef: Statistics Reference Online . doi :10.1002/9781118445112.stat08201.
  4. ^ Gneiting, T. (1997). "Mezclas de escala normal y densidades de probabilidad dual". Revista de computación estadística y simulación . 59 (4): 375–384. doi :10.1080/00949659708811867.
  5. ^ Mood, AM; Graybill, FA; Boes, DC (1974). Introducción a la teoría de la estadística (3.ª ed.). Nueva York: McGraw-Hill.
  6. ^ Andrews, DF; Mallows, CL (1974), "Mezclas de escalas de distribuciones normales", Journal of the Royal Statistical Society, Serie B , 36 (1): 99–102, doi :10.1111/j.2517-6161.1974.tb00989.x
  7. ^ Johnson, NL; Kemp, AW; Kotz, S. (2005). "6.2.2". Distribuciones discretas univariadas (3.ª ed.). Nueva York: Wiley. pág. 253.
  8. ^ Gelman, A.; Carlin, JB; Stern, H.; Dunson, DB; Vehtari, A.; Rubin, DB (2014). Análisis de datos bayesianos (3.ª ed.). Boca Raton: Chapman & Hall / CRC.
  9. ^ Lawless, JF (1987). "Regresión binomial negativa y mixta de Poisson". Revista Canadiense de Estadística . 15 (3): 209–225. doi :10.2307/3314912. JSTOR  3314912.
  10. ^ Teich, MC; Diament, P. (1989). "Multiplicar representaciones estocásticas para distribuciones K y sus transformadas de Poisson". Revista de la Sociedad Óptica de América A. 6 (1): 80–91. Código Bib : 1989JOSAA...6...80T. CiteSeerX 10.1.1.64.596 . doi :10.1364/JOSAA.6.000080. 
  11. ^ Johnson, NL; Kotz, S.; Balakrishnan, N. (1994). "20 distribuciones de Pareto ". Distribuciones univariadas continuas . Vol. 1 (2.ª ed.). Nueva York: Wiley. pág. 573.
  12. ^ Dubey, SD (1970). "Distribuciones compuestas gamma, beta y F". Metrika . 16 : 27–31. doi :10.1007/BF02613934.

Lectura adicional

  • Lindsay, BG (1995), Modelos de mezcla: teoría, geometría y aplicaciones , Serie de conferencias regionales NSF-CBMS sobre probabilidad y estadística, vol. 5, Hayward, CA, EE. UU.: Instituto de Estadística Matemática, págs. i–163, ISBN 978-0-940600-32-4, JSTOR  4153184
  • Seidel, W. (2010), "Modelos de mezcla", en Lovric, M. (ed.), International Encyclopedia of Statistical Science , Heidelberg: Springer, págs. 827–829, doi :10.1007/978-3-642-04898-2_368, ISBN 978-3-642-04898-2
  • Mood, AM; Graybill, FA; Boes, DC (1974), "III.4.3 Distribuciones contagiosas y distribuciones truncadas ", Introducción a la teoría de la estadística (3.ª ed.), Nueva York: McGraw-Hill, ISBN 978-0-85-0-312-0 978-0-07-042864-5
  • Johnson, NL; Kemp, AW; Kotz, S. (2005), "8 Distribuciones de mezcla ", Distribuciones discretas univariadas , Nueva York: Wiley, ISBN 978-0-471-27246-5
Retrieved from "https://en.wikipedia.org/w/index.php?title=Compound_probability_distribution&oldid=1236763575"