Relaciones entre distribuciones de probabilidad

Tema de teoría de probabilidad y estadística
Las relaciones entre algunas distribuciones de probabilidad univariadas se ilustran con líneas conectadas. Las líneas discontinuas indican una relación aproximada. Más información: [1]
Relaciones entre distribuciones de probabilidad univariadas en ProbOnto . [2]

En teoría de probabilidad y estadística , existen varias relaciones entre distribuciones de probabilidad . Estas relaciones se pueden clasificar en los siguientes grupos:

  • Una distribución es un caso especial de otra con un espacio de parámetros más amplio.
  • Transforma (función de una variable aleatoria);
  • Combinaciones (función de varias variables);
  • Relaciones de aproximación (límite);
  • Relaciones compuestas (útiles para la inferencia bayesiana);
  • Dualidad [ aclaración necesaria ] ;
  • Priores conjugados .

Caso especial de parametrización de distribución

Transformación de una variable

Múltiplo de una variable aleatoria

Al multiplicar la variable por cualquier constante real positiva se obtiene un escalamiento de la distribución original. Algunas son autorreplicantes, lo que significa que el escalamiento produce la misma familia de distribuciones, aunque con un parámetro diferente: distribución normal , distribución gamma , distribución de Cauchy , distribución exponencial , distribución de Erlang , distribución de Weibull , distribución logística , distribución de error , distribución de ley de potencia y distribución de Rayleigh .

Ejemplo:

  • Si X es una variable aleatoria gamma con parámetros de forma y velocidad ( α , β ), entonces Y  =  aX es una variable aleatoria gamma con parámetros ( α , β / a ).
  • Si X es una variable aleatoria gamma con parámetros de forma y escala ( k , θ ), entonces Y  =  aX es una variable aleatoria gamma con parámetros ( k , ).

Función lineal de una variable aleatoria

La transformación afín ax + b produce una reubicación y escalamiento de la distribución original. Las siguientes son autorreplicantes: distribución normal , distribución de Cauchy , distribución logística , distribución de error , distribución de potencia y distribución de Rayleigh .

Ejemplo:

  • Si Z es una variable aleatoria normal con parámetros ( μ = m , σ 2 = s 2 ), entonces X = aZ + b es una variable aleatoria normal con parámetros ( μ = am + b , σ 2 = a 2 s 2 ).

Recíproco de una variable aleatoria

El recíproco 1/ X de una variable aleatoria X , es miembro de la misma familia de distribuciones que X , en los siguientes casos: distribución de Cauchy , distribución F , distribución logística logarítmica .

Ejemplos:

  • Si X es una variable aleatoria de Cauchy ( μ , σ ), entonces 1/ X es una variable aleatoria de Cauchy ( μ / C , σ / C ) donde C = μ 2 + σ 2 .
  • Si X es una variable aleatoria F ( ν 1 , ν 2 ) entonces 1/ X es una variable aleatoria F ( ν 2 , ν 1 ).

Otros casos

Algunas distribuciones son invariantes bajo una transformación específica.

Ejemplo:

  • Si X es una variable aleatoria beta ( α , β ), entonces (1 − X ) es una variable aleatoria beta ( β , α ).
  • Si X es una variable aleatoria binomial ( n , p ) entonces ( nX ) es una variable aleatoria binomial ( n , 1 −  p ).
  • Si X tiene una función de distribución acumulativa F X , entonces la inversa de la distribución acumulativa F
    incógnita
    ( X ) es una variable aleatoria uniforme estándar (0,1)
  • Si X es una variable aleatoria normal ( μ , σ 2 ), entonces e X es una variable aleatoria lognormal ( μ , σ 2 ).
Por el contrario, si X es una variable aleatoria lognormal ( μ , σ 2 ), entonces log  X es una variable aleatoria normal ( μ , σ 2 ).
  • Si X es una variable aleatoria exponencial con media β , entonces X 1/ γ es una variable aleatoria Weibull ( γ , β ).
  • El cuadrado de una variable aleatoria normal estándar tiene una distribución de chi-cuadrado con un grado de libertad.
  • Si X es una variable aleatoria t de Student con ν grados de libertad, entonces X 2 es una variable aleatoria F (1, ν ).
  • Si X es una variable aleatoria doble exponencial con media 0 y escala λ , entonces | X | es una variable aleatoria exponencial con media λ .
  • Una variable aleatoria geométrica es el piso de una variable aleatoria exponencial .
  • Una variable aleatoria rectangular es el piso de una variable aleatoria uniforme .
  • Una variable aleatoria recíproca es la exponencial de una variable aleatoria uniforme .

Funciones de varias variables

Suma de variables

La distribución de la suma de las variables aleatorias independientes es la convolución de sus distribuciones. Supongamos que la suma de las variables aleatorias independientes tiene cada una funciones de masa de probabilidad . Entonces O {\estilo de visualización Z} norte {\estilo de visualización n} incógnita 1 , , incógnita norte {\displaystyle X_{1},\puntos ,X_{n}} F incógnita i ( incógnita ) Estilo de visualización f_{X_{i}}(x)}

O = i = 1 norte incógnita i . {\displaystyle Z=\sum _{i=1}^{n}{X_{i}}.}

Si tiene una distribución de la misma familia de distribuciones que las variables originales, se dice que esa familia de distribuciones es cerrada bajo convolución . A menudo (¿siempre?) estas distribuciones también son distribuciones estables (véase también Distribución discreta-estable ).

Ejemplos de tales distribuciones univariadas son: distribuciones normales , distribuciones de Poisson , distribuciones binomiales (con probabilidad de éxito común), distribuciones binomiales negativas (con probabilidad de éxito común), distribuciones gamma (con parámetro de tasa común ), distribuciones de chi-cuadrado , distribuciones de Cauchy y distribuciones hiperexponenciales .

Ejemplos: [3] [4]

    • Si X 1 y X 2 son variables aleatorias de Poisson con medias μ 1 y μ 2 respectivamente, entonces X 1 + X 2 es una variable aleatoria de Poisson con media μ 1 + μ 2 .
    • La suma de variables aleatorias gamma ( α i , β ) tiene una distribución gammaα i , β ).
    • Si X 1 es una variable aleatoria de Cauchy ( μ 1 , σ 1 ) y X 2 es una variable aleatoria de Cauchy ( μ 2 , σ 2 ), entonces X 1 + X 2 es una variable aleatoria de Cauchy ( μ 1 + μ 2 , σ 1 + σ 2 ).
    • Si X 1 y X 2 son variables aleatorias chi-cuadrado con ν 1 y ν 2 grados de libertad respectivamente, entonces X 1 + X 2 es una variable aleatoria chi-cuadrado con ν 1 + ν 2 grados de libertad.
    • Si X 1 es normal ( μ 1 , σ2
      1
      ) variable aleatoria y X 2 es una normal ( μ 2 , σ2
      2
      ) variable aleatoria, entonces X 1 + X 2 es una variable normal ( μ 1 + μ 2 , σ2
      1
      + σ2
      2
      ) variable aleatoria.
    • La suma de N variables aleatorias chi-cuadrado (1) tiene una distribución chi-cuadrado con N grados de libertad.

Otras distribuciones no están cerradas bajo convolución, pero su suma tiene una distribución conocida:

  • La suma de n variables aleatorias de Bernoulli (p) es una variable aleatoria binomial ( n , p ).
  • La suma de n variables aleatorias geométricas con probabilidad de éxito p es una variable aleatoria binomial negativa con parámetros n y p .
  • La suma de n variables aleatorias exponenciales ( β ) es una variable aleatoria gamma ( n , β ). Como n es un número entero, la distribución gamma también es una distribución de Erlang .
  • La suma de los cuadrados de N variables aleatorias normales estándar tiene una distribución de chi-cuadrado con N grados de libertad.

Producto de variables

El producto de las variables aleatorias independientes X e Y puede pertenecer a la misma familia de distribuciones que X e Y : distribución de Bernoulli y distribución log-normal .

Ejemplo:

  • Si X 1 y X 2 son variables aleatorias log-normales independientes con parámetros ( μ 1 , σ2
    1
    ) y ( μ 2 , σ2
    2
    ) respectivamente, entonces X 1 X 2 es una variable aleatoria log-normal con parámetros ( μ 1 + μ 2 , σ2
    1
    + σ2
    2
    ).

(Véase también Distribución de productos .)

Mínimo y máximo de variables aleatorias independientes

Para algunas distribuciones, el valor mínimo de varias variables aleatorias independientes es miembro de la misma familia, con diferentes parámetros: distribución de Bernoulli , distribución geométrica , distribución exponencial , distribución de valores extremos , distribución de Pareto , distribución de Rayleigh , distribución de Weibull .

Ejemplos:

  • Si X 1 y X 2 son variables aleatorias geométricas independientes con probabilidad de éxito p 1 y p 2 respectivamente, entonces min( X 1 , X 2 ) es una variable aleatoria geométrica con probabilidad de éxito p = p 1 + p 2p 1 p 2 . La relación es más simple si se expresa en términos de probabilidad de fracaso: q = q 1 q 2 .
  • Si X 1 y X 2 son variables aleatorias exponenciales independientes con tasa μ 1 y μ 2 respectivamente, entonces min( X 1 , X 2 ) es una variable aleatoria exponencial con tasa μ = μ 1 + μ 2 .

De manera similar, las distribuciones para las cuales el valor máximo de varias variables aleatorias independientes es miembro de la misma familia de distribuciones incluyen: distribución de Bernoulli y distribución de ley de potencia .

Otro

  • Si X e Y son variables aleatorias normales estándar independientes , X / Y es una variable aleatoria de Cauchy (0,1).
  • Si X 1 y X 2 son variables aleatorias chi-cuadrado independientes con ν 1 y ν 2 grados de libertad respectivamente, entonces ( X 1 / ν 1 )/( X 2 / ν 2 ) es una variable aleatoria F ( ν 1 , ν 2 ).
  • Si X es una variable aleatoria normal estándar y U es una variable aleatoria chi-cuadrado independiente con ν grados de libertad, entonces es una variable aleatoria t de Student ( ν ). incógnita ( / no ) {\displaystyle {\frac {X}{\sqrt {(U/\nu )}}}}
  • Si X 1 es una variable aleatoria gamma ( α 1 , 1) y X 2 es una variable aleatoria gamma ( α 2 , 1) independiente, entonces X 1 /( X 1 + X 2 ) es una variable aleatoria beta ( α 1 , α 2 ). De manera más general, si X 1 es una variable aleatoria gamma ( α 1 , β 1 ) y X 2 es una variable aleatoria gamma ( α 2 , β 2 ) independiente, entonces β 2 X 1 / ( β 2 X 1 + β 1 X 2 ) es una variable aleatoria beta ( α 1 , α 2 ) .
  • Si X e Y son variables aleatorias exponenciales independientes con media μ, entonces X  −  Y es una variable aleatoria exponencial doble con media 0 y escala μ.
  • Si Xi son variables aleatorias de Bernoulli independientes, entonces su paridad (XOR) es una variable de Bernoulli descrita por el lema de apilamiento .

(Véase también distribución de razones ).

Relaciones aproximadas (límite)

Relación aproximada o límite significa

  • o bien que la combinación de un número infinito de variables aleatorias iid tiende a alguna distribución,
  • o que el límite cuando un parámetro tiende a algún valor se aproxima a una distribución diferente.

Combinación de variables aleatorias iid :

  • Dadas ciertas condiciones, la suma (y por lo tanto el promedio) de un número suficientemente grande de variables aleatorias iid, cada una con media y varianza finitas, tendrá una distribución aproximadamente normal. Este es el teorema del límite central (TLC).

Caso especial de parametrización de distribución:

  • X es una variable aleatoria hipergeométrica ( m , N , n ). Si n y m son grandes en comparación con N y p = m / N no está cerca de 0 o 1, entonces X tiene aproximadamente una distribución binomial ( n , p ).
  • X es una variable aleatoria beta-binomial con parámetros ( n , α , β ). Sea p = α /( α + β ) y supongamos que α + β es grande, entonces X tiene aproximadamente una distribución binomial ( n , p ).
  • Si X es una variable aleatoria binomial ( n , p ) y si n es grande y np es pequeño, entonces X tiene aproximadamente una distribución de Poisson ( np ).
  • Si X es una variable aleatoria binomial negativa con r grande, P cerca de 1 y r (1 −  P ) = λ , entonces X tiene aproximadamente una distribución de Poisson con media λ .

Consecuencias del CLT:

  • Si X es una variable aleatoria de Poisson con media grande, entonces para los números enteros j y k , P( jXk ) es aproximadamente igual a P ( j − 1/2 ≤ Yk + 1/2) donde Y es una distribución normal con la misma media y varianza que X.
  • Si X es una variable aleatoria binomial ( n , p ) con np y n (1 −  p ) grandes, entonces para los enteros j y k , P( jXk ) es aproximadamente igual a P( j − 1/2 ≤ Yk + 1/2) donde Y es una variable aleatoria normal con la misma media y varianza que X , es decir, np y np (1 −  p ).
  • Si X es una variable aleatoria beta con parámetros α y β iguales y grandes, entonces X tiene aproximadamente una distribución normal con la misma media y varianza, es decir, media α /( α + β ) y varianza αβ /(( α + β ) 2 ( α + β + 1)).
  • Si X es una variable aleatoria gamma ( α , β ) y el parámetro de forma α es grande en relación con el parámetro de escala β , entonces X tiene aproximadamente una variable aleatoria normal con la misma media y varianza.
  • Si X es una variable aleatoria t de Student con un gran número de grados de libertad ν, entonces X tiene aproximadamente una distribución normal estándar .
  • Si X es una variable aleatoria F ( ν , ω ) con ω grande, entonces νX se distribuye aproximadamente como una variable aleatoria chi-cuadrado con ν grados de libertad.

Relaciones compuestas (o bayesianas)

Cuando uno o más parámetros de una distribución son variables aleatorias, la distribución compuesta es la distribución marginal de la variable.

Ejemplos:

  • Si X  |  N es una variable aleatoria binomial ( N , p ), donde el parámetro N es una variable aleatoria con distribución binomial negativa ( m , r ), entonces X se distribuye como una distribución binomial negativa ( m , r /( p + qr )).
  • Si X  |  N es una variable aleatoria binomial ( N , p ), donde el parámetro N es una variable aleatoria con distribución Poisson ( μ ), entonces X se distribuye como Poisson ( μp ).
  • Si X  |  μ es una variable aleatoria de Poisson ( μ ) y el parámetro μ es una variable aleatoria con distribución gamma( m , θ ) (donde θ es el parámetro de escala), entonces X se distribuye como una distribución binomial negativa ( m , θ /(1 +  θ )), a veces llamada distribución gamma-Poisson .

Algunas distribuciones han sido nombradas especialmente como compuestos: distribución beta-binomial , distribución beta binomial negativa y distribución gamma-normal .

Ejemplos:

  • Si X es una variable aleatoria Binomial( n , p ) y el parámetro p es una variable aleatoria con distribución beta( α , β ), entonces X se distribuye como Beta-Binomial( α , β , n ).
  • Si X es una variable aleatoria binomial negativa ( r , p ) y el parámetro p es una variable aleatoria con distribución beta ( α , β ), entonces X se distribuye como una distribución binomial negativa Beta ( r , α , β ).

Véase también

Referencias

  1. ^ LEEMIS, Lawrence M.; Jacquelyn T. MCQUESTON (febrero de 2008). "Relaciones de distribución univariadas" (PDF) . American Statistician . 62 (1): 45–53. doi :10.1198/000313008x270448. S2CID  9367367.
  2. ^ Swat, MJ; Grenon, P; Wimalaratne, S (2016). "ProbOnto: ontología y base de conocimiento de distribuciones de probabilidad". Bioinformática . 32 (17): 2719–21. doi :10.1093/bioinformatics/btw170. PMC 5013898 . PMID  27153608. 
  3. ^ Cook, John D. "Diagrama de relaciones de distribución".
  4. ^ Dinov, Ivo D.; Siegrist, Kyle; Pearl, Dennis; Kalinin, Alex; Christou, Nicolas (2015). "Distributoma de probabilidad: una infraestructura computacional web para explorar las propiedades, interrelaciones y aplicaciones de las distribuciones de probabilidad". Computational Statistics . 594 (2): 249–271. doi :10.1007/s00180-015-0594-6. PMC 4856044 . PMID  27158191. 
  • Gráfico interactivo: Relaciones de distribución univariadas
  • ProbOnto - Ontología y base de conocimientos de distribuciones de probabilidad: ProbOnto
  • El proyecto Probability Distributome incluye calculadoras, simuladores, experimentos y navegadores para reestructuraciones interdistribucionales y metadatos de distribución.
Retrieved from "https://en.wikipedia.org/w/index.php?title=Relationships_among_probability_distributions&oldid=1244979905#Sum_of_variables"