Ley de acumulación total

En teoría de probabilidad y estadística matemática , la ley de la cumulancia total es una generalización a los cumulantes de la ley de probabilidad total , la ley de la expectativa total y la ley de la varianza total . Tiene aplicaciones en el análisis de series temporales . Fue introducida por David Brillinger . [1]

Es más transparente cuando se enuncia en su forma más general, para cumulantes conjuntos , en lugar de para cumulantes de un orden específico para una sola variable aleatoria . En general, tenemos

k ( incógnita 1 , , incógnita norte ) = π k ( k ( incógnita i : i B Y ) : B π ) , {\displaystyle \kappa (X_{1},\puntos ,X_{n})=\suma _{\pi }\kappa (\kappa (X_{i}:i\en B\mid Y):B\en \pi ),}

dónde

  • κ ( X 1 , ...,  X n ) es el cumulante conjunto de n variables aleatorias X 1 , ...,  X n , y
  • la suma es sobre todas las particiones del conjunto { 1, ...,  n  } de índices, y π {\estilo de visualización \pi}
  • " Bπ ;" significa que B recorre toda la lista de "bloques" de la partición π , y
  • κ ( X i  :  i  ∈  B  |  Y ) es un cumulante condicional dado el valor de la variable aleatoria  Y . Por lo tanto, es una variable aleatoria por derecho propio: una función de la variable aleatoria  Y .

Ejemplos

El caso especial de una sola variable aleatoria ynorte= 2 o 3

Sólo en el caso de que n = 2 o 3 el n -ésimo cumulante es igual al n -ésimo momento central . El caso n  = 2 es bien conocido (véase la ley de varianza total ). A continuación se muestra el caso n  = 3. La notación μ 3 significa el tercer momento central.

micras 3 ( incógnita ) = mi ( micras 3 ( incógnita Y ) ) + micras 3 ( mi ( incógnita Y ) ) + 3 cubierta ( mi ( incógnita Y ) , variedad ( incógnita Y ) ) . {\displaystyle \mu _{3}(X)=\operatorname {E} (\mu _{3}(X\mid Y))+\mu _{3}(\operatorname {E} (X\mid Y ))+3\operatorname {cov} (\operatorname {E} (X\mid Y),\operatorname {var} (X\mid Y)).}

Cumulantes conjuntos generales de cuarto orden

Para los cumulantes generales de cuarto orden, la regla da una suma de 15 términos, como sigue:

k ( incógnita 1 , incógnita 2 , incógnita 3 , incógnita 4 ) = k ( k ( incógnita 1 , incógnita 2 , incógnita 3 , incógnita 4 Y ) ) + k ( k ( incógnita 1 , incógnita 2 , incógnita 3 Y ) , k ( incógnita 4 Y ) ) + k ( k ( incógnita 1 , incógnita 2 , incógnita 4 Y ) , k ( incógnita 3 Y ) ) + k ( k ( incógnita 1 , incógnita 3 , incógnita 4 Y ) , k ( incógnita 2 Y ) ) + k ( k ( incógnita 2 , incógnita 3 , incógnita 4 Y ) , k ( incógnita 1 Y ) ) } ( particiones de la  3 + 1  forma ) + k ( k ( incógnita 1 , incógnita 2 Y ) , k ( incógnita 3 , incógnita 4 Y ) ) + k ( k ( incógnita 1 , incógnita 3 Y ) , k ( incógnita 2 , incógnita 4 Y ) ) + k ( k ( incógnita 1 , incógnita 4 Y ) , k ( incógnita 2 , incógnita 3 Y ) ) } ( particiones de la  2 + 2  forma ) + k ( k ( incógnita 1 , incógnita 2 Y ) , k ( incógnita 3 Y ) , k ( incógnita 4 Y ) ) + k ( k ( incógnita 1 , incógnita 3 Y ) , k ( incógnita 2 Y ) , k ( incógnita 4 Y ) ) + k ( k ( incógnita 1 , incógnita 4 Y ) , k ( incógnita 2 Y ) , k ( incógnita 3 Y ) ) + k ( k ( incógnita 2 , incógnita 3 Y ) , k ( incógnita 1 Y ) , k ( incógnita 4 Y ) ) + k ( k ( incógnita 2 , incógnita 4 Y ) , k ( incógnita 1 Y ) , k ( incógnita 3 Y ) ) + k ( k ( incógnita 3 , incógnita 4 Y ) , k ( incógnita 1 Y ) , k ( incógnita 2 Y ) ) } ( particiones de la  2 + 1 + 1  forma ) + k ( k ( incógnita 1 Y ) , k ( incógnita 2 Y ) , k ( incógnita 3 Y ) , k ( incógnita 4 Y ) ) . {\displaystyle {\begin{aligned}&\kappa (X_{1},X_{2},X_{3},X_{4})\\[5pt]={}&\kappa (\kappa (X_{1},X_{2},X_{3},X_{4}\mid Y))\\[5pt]&\left.{\begin{matriz}&{}+\kappa (\kappa (X_{1},X_{2},X_{3}\mid Y),\kappa (X_{4}\mid Y))\\[5pt]&{}+\kappa (\kappa (X_{1},X_{2},X_{4}\mid Y),\kappa (X_{3}\mid Y))\\[5pt]&{}+\kappa (\kappa (X_{1},X_{3},X_{4}\mid Y),\kappa (X_{2}\mid Y))\\[5pt]&{}+\kappa (\kappa (X_{2},X_{3},X_{4}\mid Y),\kappa (X_{1}\mid Y))\end{matriz}}\right\}({\text{particiones de la forma }}3+1{\text{}})\\[5pt]&\left.{\begin{matriz}&{}+\kappa (\kappa (X_{1},X_{2}\mid Y),\kappa (X_{3},X_{4}\mid Y))\\[5pt]&{}+\kappa (\kappa (X_{1},X_{3}\mid Y),\kappa (X_{2},X_{4}\mid Y))\\[5pt]&{}+\kappa (\kappa (X_{1},X_{4}\mid Y),\kappa (X_{2},X_{3}\mid Y))\end{matriz}}\right\}({\text{particiones de la forma }}2+2{\text{}})\\[5pt]&\left.{\begin{matriz}&{}+\kappa (\kappa (X_{1},X_{2}\mid Y),\kappa (X_{3}\mid Y),\kappa (X_{4}\mid Y))\\[5pt]&{}+\kappa (\kappa (X_{1},X_{3}\mid Y),\kappa (X_{2}\mid Y),\kappa (X_{4}\mid Y))\\[5pt]&{}+\kappa (\kappa (X_{1},X_{4}\mid Y),\kappa (X_{2}\mid Y),\kappa (X_{3}\mid Y))\\[5pt]&{}+\kappa (\kappa (X_{2},X_{3}\mid Y),\kappa (X_{1}\mid Y),\kappa (X_{4}\mid Y))\\[5pt]&{}+\kappa (\kappa (X_{2},X_{4}\mid Y),\kappa (X_{1}\mid Y),\kappa (X_{3}\mid Y))\\[5pt]&{}+\kappa (\kappa (X_{3},X_{4}\mid Y),\kappa (X_{1}\mid Y),\kappa (X_{2}\mid Y))\end{matrix}}\right\}({\text{particiones de la forma }}2+1+1{\text{}})\\[5pt]&{\begin{matrix}{}+\kappa (\kappa (X_{1}\mid Y),\kappa (X_{2}\mid Y),\kappa (X_{3}\mid Y),\kappa (X_{4}\mid Y)).\end{matriz}}\end{alineado}}}

Cumulantes de variables aleatorias de Poisson compuestas

Supongamos que Y tiene una distribución de Poisson con valor esperado  λ y X es la suma de Y copias de W que son independientes entre sí y de  Y.

incógnita = y = 1 Y Yo y . {\displaystyle X=\sum _{y=1}^{Y}W_{y}.}

Todos los cumulantes de la distribución de Poisson son iguales entre sí, y por lo tanto, en este caso son iguales a  λ . Recuerde también que si las variables aleatorias W 1 , ..., W m son independientes , entonces el n -ésimo cumulante es aditivo:

k norte ( Yo 1 + + Yo metro ) = k norte ( Yo 1 ) + + k norte ( Yo metro ) . {\displaystyle \kappa _ {n}(W_ {1}+\cdots +W_ {m})=\kappa _ {n}(W_ {1})+\cdots +\kappa _ {n}(W_ {m }).}

Hallaremos el 4º cumulante de X. Tenemos:

k 4 ( incógnita ) = k ( incógnita , incógnita , incógnita , incógnita ) = k 1 ( k 4 ( incógnita Y ) ) + 4 k ( k 3 ( incógnita Y ) , k 1 ( incógnita Y ) ) + 3 k 2 ( k 2 ( incógnita Y ) ) + 6 k ( k 2 ( incógnita Y ) , k 1 ( incógnita Y ) , k 1 ( incógnita Y ) ) + k 4 ( k 1 ( incógnita Y ) ) = k 1 ( Y k 4 ( Yo ) ) + 4 k ( Y k 3 ( Yo ) , Y k 1 ( Yo ) ) + 3 k 2 ( Y k 2 ( Yo ) ) + 6 k ( Y k 2 ( Yo ) , Y k 1 ( Yo ) , Y k 1 ( Yo ) ) + k 4 ( Y k 1 ( Yo ) ) = k 4 ( Yo ) k 1 ( Y ) + 4 k 3 ( Yo ) k 1 ( Yo ) k 2 ( Y ) + 3 k 2 ( Yo ) 2 k 2 ( Y ) + 6 k 2 ( Yo ) k 1 ( Yo ) 2 k 3 ( Y ) + k 1 ( Yo ) 4 k 4 ( Y ) = k 4 ( Yo ) la + 4 k 3 ( Yo ) k 1 ( Yo ) la + 3 k 2 ( Yo ) 2 + 6 k 2 ( Yo ) k 1 ( Yo ) 2 la + k 1 ( Yo ) 4 la = la mi ( Yo 4 ) (la frase final: vea la explicación a continuación). {\displaystyle {\begin{aligned}\kappa _{4}(X)={}&\kappa (X,X,X,X)\\[8pt]={}&\kappa _{1}(\kappa _{4}(X\mid Y))+4\kappa (\kappa _{3}(X\mid Y),\kappa _{1}(X\mid Y))+3\kappa _{2}(\kappa _{2}(X\mid Y))\\&{}+6\kappa (\kappa _{2}(X\mid Y),\kappa _{1}(X\mid Y),\kappa _{1}(X\mid Y))+\kappa _{4}(\kappa _{1}(X\mid Y))\\[8pt]={}&\kappa _{1}(Y\kappa _{4}(W))+4\kappa (Y\kappa _{3}(W),Y\kappa _{1}(W))+3\kappa _{2}(Y\kappa _{2}(W))\\&{}+6\kappa (Y\kappa _{2}(W),Y\kappa _{1}(W),Y\kappa _{1}(W))+\kappa _{4}(Y\kappa _{1}(W))\\[8pt]={}&\kappa _{4}(W)\kappa _{1}(Y)+4\kappa _{3}(W)\kappa _{1}(W)\kappa _{2}(Y)+3\kappa _{2}(W)^{2}\kappa _{2}(Y)\\&{}+6\kappa _{2}(W)\kappa _{1}(W)^{2}\kappa _{3}(Y)+\kappa _{1}(W)^{4}\kappa _{4}(Y)\\[8pt]={}&\kappa _{4}(W)\lambda +4\kappa _{3}(W)\kappa _{1}(W)\lambda +3\kappa _{2}(W)^{2}+6\kappa _{2}(W)\kappa _{1}(W)^{2}\lambda +\kappa _{1}(W)^{4}\lambda \\[8pt]={}&\lambda \operatorname {E} (W^{4})\qquad {\text{(the punch line -- see the explanation below).}}\end{aligned}}}

Reconocemos la última suma como la suma sobre todas las particiones del conjunto { 1, 2, 3, 4 }, del producto sobre todos los bloques de la partición, de cumulantes de W de orden igual al tamaño del bloque. Ese es precisamente el cuarto momento bruto de W (ver cumulante para una discusión más pausada de este hecho). Por lo tanto, los cumulantes de X son los momentos de W multiplicados por  λ .

De esta manera vemos que toda secuencia de momentos es también una secuencia cumulante (lo inverso no puede ser cierto, ya que los cumulantes de orden par ≥ 4 son en algunos casos negativos, y también porque la secuencia cumulante de la distribución normal no es una secuencia de momentos de ninguna distribución de probabilidad).

Condicionamiento sobre una variable aleatoria de Bernoulli

Supongamos que Y  = 1 con probabilidad  p e Y  = 0 con probabilidad  q  = 1 −  p . Supongamos que la distribución de probabilidad condicional de X dado Y es F si Y  = 1 y G si Y  = 0. Entonces tenemos

κ n ( X ) = p κ n ( F ) + q κ n ( G ) + π < 1 ^ κ | π | ( Y ) B π ( κ | B | ( F ) κ | B | ( G ) ) {\displaystyle \kappa _{n}(X)=p\kappa _{n}(F)+q\kappa _{n}(G)+\sum _{\pi <{\widehat {1}}}\kappa _{\left|\pi \right|}(Y)\prod _{B\in \pi }(\kappa _{\left|B\right|}(F)-\kappa _{\left|B\right|}(G))}

donde π es una partición del conjunto { 1, ...,  n } que es más fina que la partición más gruesa – la suma se  aplica a todas las particiones excepto a esa. Por ejemplo, si n  = 3, entonces tenemos π < 1 ^ {\displaystyle \pi <{\widehat {1}}}

κ 3 ( X ) = p κ 3 ( F ) + q κ 3 ( G ) + 3 p q ( κ 2 ( F ) κ 2 ( G ) ) ( κ 1 ( F ) κ 1 ( G ) ) + p q ( q p ) ( κ 1 ( F ) κ 1 ( G ) ) 3 . {\displaystyle \kappa _{3}(X)=p\kappa _{3}(F)+q\kappa _{3}(G)+3pq(\kappa _{2}(F)-\kappa _{2}(G))(\kappa _{1}(F)-\kappa _{1}(G))+pq(q-p)(\kappa _{1}(F)-\kappa _{1}(G))^{3}.}

Referencias

  1. ^ David Brillinger, "El cálculo de cumulantes mediante condicionamiento", Anales del Instituto de Matemáticas Estadísticas , Vol. 21 (1969), págs. 215-218.
Retrieved from "https://en.wikipedia.org/w/index.php?title=Law_of_total_cumulance&oldid=1097108010"