Independencia por pares

Conjunto de variables aleatorias de las cuales dos son independientes

En teoría de probabilidad , una colección de variables aleatorias independientes por pares es un conjunto de variables aleatorias, dos de las cuales son independientes . [1] Cualquier colección de variables aleatorias mutuamente independientes es independiente por pares, pero algunas colecciones independientes por pares no son mutuamente independientes. Las variables aleatorias independientes por pares con varianza finita no están correlacionadas .

Un par de variables aleatorias X e Y son independientes si y solo si el vector aleatorio ( X , Y ) con función de distribución acumulativa conjunta (CDF) satisface F incógnita , Y ( incógnita , y ) Estilo de visualización F_{X,Y}(x,y)}

F incógnita , Y ( incógnita , y ) = F incógnita ( incógnita ) F Y ( y ) , {\displaystyle F_{X,Y}(x,y)=F_{X}(x)F_{Y}(y),}

o equivalentemente, su densidad conjunta satisface F incógnita , Y ( incógnita , y ) Estilo de visualización f_{X,Y}(x,y)}

F incógnita , Y ( incógnita , y ) = F incógnita ( incógnita ) F Y ( y ) . {\displaystyle f_{X,Y}(x,y)=f_{X}(x)f_{Y}(y).}

Es decir, la distribución conjunta es igual al producto de las distribuciones marginales. [2]

A menos que no quede claro en el contexto, en la práctica el modificador "mutuo" suele omitirse para que independencia signifique independencia mutua . Una afirmación como " X , Y , Z son variables aleatorias independientes" significa que X , Y , Z son mutuamente independientes.

Ejemplo

La independencia por pares no implica independencia mutua, como lo demuestra el siguiente ejemplo atribuido a S. Bernstein. [3]

Supongamos que X e Y son dos lanzamientos independientes de una moneda justa, donde designamos 1 para cara y 0 para cruz. Sea la tercera variable aleatoria Z igual a 1 si exactamente uno de esos lanzamientos de moneda resultó en "cara", y 0 en caso contrario (es decir, ). Entonces, en conjunto, la tripleta ( X , Y , Z ) tiene la siguiente distribución de probabilidad : O = incógnita Y {\displaystyle Z=X\omás Y}

( incógnita , Y , O ) = { ( 0 , 0 , 0 ) con probabilidad   1 / 4 , ( 0 , 1 , 1 ) con probabilidad   1 / 4 , ( 1 , 0 , 1 ) con probabilidad   1 / 4 , ( 1 , 1 , 0 ) con probabilidad   1 / 4. {\displaystyle (X,Y,Z)=\left\{{\begin{matrix}(0,0,0)&{\text{con probabilidad}}\ 1/4,\\(0,1,1)&{\text{con probabilidad}}\ 1/4,\\(1,0,1)&{\text{con probabilidad}}\ 1/4,\\(1,1,0)&{\text{con probabilidad}}\ 1/4.\end{matrix}}\right.}

Aquí las distribuciones de probabilidad marginal son idénticas: y Las distribuciones bivariadas también concuerdan: donde F incógnita ( 0 ) = F Y ( 0 ) = F O ( 0 ) = 1 / 2 , {\displaystyle f_{X}(0)=f_{Y}(0)=f_{Z}(0)=1/2,} F incógnita ( 1 ) = F Y ( 1 ) = F O ( 1 ) = 1 / 2. {\displaystyle f_{X}(1)=f_{Y}(1)=f_{Z}(1)=1/2.} F incógnita , Y = F incógnita , O = F Y , O , {\displaystyle f_{X,Y}=f_{X,Z}=f_{Y,Z},} F incógnita , Y ( 0 , 0 ) = F incógnita , Y ( 0 , 1 ) = F incógnita , Y ( 1 , 0 ) = F incógnita , Y ( 1 , 1 ) = 1 / 4. {\displaystyle f_{X,Y}(0,0)=f_{X,Y}(0,1)=f_{X,Y}(1,0)=f_{X,Y}(1,1)=1/4.}

Dado que cada una de las distribuciones conjuntas por pares es igual al producto de sus respectivas distribuciones marginales, las variables son independientes por pares:

  • X e Y son independientes, y
  • X y Z son independientes, y
  • Y y Z son independientes.

Sin embargo, X , Y y Z no son mutuamente independientes , ya que el lado izquierdo es igual, por ejemplo, a 1/4 para ( x , y , z ) = (0, 0, 0), mientras que el lado derecho es igual a 1/8 para ( x , y , z ) = (0, 0, 0). De hecho, cualquiera de las dos está completamente determinada por las otras dos (cualquiera de las dos X , Y , Z es la suma (módulo 2) de las otras). Esto es lo más lejos que pueden llegar de la independencia las variables aleatorias. F incógnita , Y , O ( incógnita , y , el ) F incógnita ( incógnita ) F Y ( y ) F O ( el ) , {\displaystyle f_{X,Y,Z}(x,y,z)\neq f_{X}(x)f_{Y}(y)f_{Z}(z),} { incógnita , Y , O } {\estilo de visualización \{X,Y,Z\}}

Probabilidad de la unión de eventos independientes por pares

Los límites de la probabilidad de que la suma de las variables aleatorias de Bernoulli sea al menos uno, comúnmente conocidos como el límite de unión , son proporcionados por las desigualdades de Boole–Fréchet [4] [5] . Si bien estos límites suponen solo información univariante , también se han propuesto varios límites con conocimiento de probabilidades bivariadas generales. Denote por un conjunto de eventos de Bernoulli con probabilidad de ocurrencia para cada . Suponga que las probabilidades bivariadas están dadas por para cada par de índices . Kounias [6] derivó el siguiente límite superior : { A i , i { 1 , 2 , . . . , norte } } {\displaystyle \{{A}_{i},i\in \{1,2,...,n\}\}} norte {\estilo de visualización n} PAG ( A i ) = pag i {\displaystyle \mathbb {P}(A_{i})=p_{i}} i {\displaystyle i} P ( A i A j ) = p i j {\displaystyle \mathbb {P} (A_{i}\cap A_{j})=p_{ij}} ( i , j ) {\displaystyle (i,j)}

P ( i A i ) i = 1 n p i max j { 1 , 2 , . . , n } i j p i j , {\displaystyle \mathbb {P} (\displaystyle {\cup }_{i}A_{i})\leq \displaystyle \sum _{i=1}^{n}p_{i}-{\underset {j\in \{1,2,..,n\}}{\max }}\sum _{i\neq j}p_{ij},}

que resta el peso máximo de un árbol de expansión en estrella en un gráfico completo con nodos (donde los pesos de los bordes están dados por ) de la suma de las probabilidades marginales . Hunter-Worsley [7] [8] ajustó este límite superior al optimizar de la siguiente manera: n {\displaystyle n} p i j {\displaystyle p_{ij}} i p i {\displaystyle \sum _{i}p_{i}}
τ T {\displaystyle \tau \in T}

P ( i A i ) i = 1 n p i max τ T ( i , j ) τ p i j , {\displaystyle \mathbb {P} (\displaystyle {\cup }_{i}A_{i})\leq \displaystyle \sum _{i=1}^{n}p_{i}-{\underset {\tau \in T}{\max }}\sum _{(i,j)\in \tau }p_{ij},}

donde es el conjunto de todos los árboles de expansión en el gráfico. Estos límites no son los más estrictos posibles con bivariantes generales incluso cuando se garantiza la viabilidad como se muestra en Boros et.al. [9] Sin embargo, cuando las variables son independientes por pares ( ), Ramachandra—Natarajan [10] demostró que el límite de Kounias-Hunter-Worsley [6] [7] [8] es estricto al probar que la probabilidad máxima de la unión de eventos admite una expresión de forma cerrada dada como: T {\displaystyle T} p i j {\displaystyle p_{ij}} p i j = p i p j {\displaystyle p_{ij}=p_{i}p_{j}}

max P ( i A i ) = min ( i = 1 n p i p n ( i = 1 n 1 p i ) , 1 ) {\displaystyle \max \mathbb {P} (\displaystyle {\cup }_{i}A_{i})=\displaystyle \min \left(\sum _{i=1}^{n}p_{i}-p_{n}\left(\sum _{i=1}^{n-1}p_{i}\right),1\right)} ( 1 )

donde las probabilidades se ordenan en orden creciente como . El límite estricto en la ecuación 1 depende solo de la suma de las probabilidades más pequeñas y la probabilidad más grande . Por lo tanto, si bien el orden de las probabilidades juega un papel en la derivación del límite, el orden entre las probabilidades más pequeñas es intrascendente ya que solo se utiliza su suma. 0 p 1 p 2 p n 1 {\displaystyle 0\leq p_{1}\leq p_{2}\leq \ldots \leq p_{n}\leq 1} n 1 {\displaystyle n-1} i = 1 n 1 p i {\displaystyle \sum _{i=1}^{n-1}p_{i}} p n {\displaystyle p_{n}} n 1 {\displaystyle n-1} { p 1 , p 2 , . . . , p n 1 } {\displaystyle \{p_{1},p_{2},...,p_{n-1}\}}

Resulta útil comparar los límites más pequeños de la probabilidad de la unión con dependencia arbitraria e independencia por pares respectivamente. El límite superior de la unión de Boole-Fréchet más estricto (suponiendo solo información univariante ) se da como:

max P ( i A i ) = min ( i = 1 n p i , 1 ) {\displaystyle \displaystyle \max \mathbb {P} (\displaystyle {\cup }_{i}A_{i})=\displaystyle \min \left(\sum _{i=1}^{n}p_{i},1\right)} ( 2 )

Como se muestra en Ramachandra-Natarajan, [10] se puede verificar fácilmente que la relación de los dos límites estrictos en la ecuación 2 y la ecuación 1 está limitada superiormente por donde se alcanza el valor máximo de cuando 4 / 3 {\displaystyle 4/3} 4 / 3 {\displaystyle 4/3}

i = 1 n 1 p i = 1 / 2 {\displaystyle \sum _{i=1}^{n-1}p_{i}=1/2} , p n = 1 / 2 {\displaystyle p_{n}=1/2}

donde las probabilidades se ordenan en orden creciente como . En otras palabras, en el mejor de los casos, el límite de independencia por pares en la ecuación 1 proporciona una mejora de sobre el límite univariante en la ecuación 2 . 0 p 1 p 2 p n 1 {\displaystyle 0\leq p_{1}\leq p_{2}\leq \ldots \leq p_{n}\leq 1} 25 % {\displaystyle 25\%}

Generalización

De manera más general, podemos hablar de independencia k -wise, para cualquier k  ≥ 2. La idea es similar: un conjunto de variables aleatorias es k -wise independiente si cada subconjunto de tamaño k de esas variables es independiente. La independencia k -wise se ha utilizado en informática teórica, donde se utilizó para demostrar un teorema sobre el problema MAXEkSAT .

La independencia k -wise se utiliza en la prueba de que las funciones hash k-independientes son códigos de autenticación de mensajes seguros e infalsificables .

Véase también

Referencias

  1. ^ Gut, A. (2005) Probabilidad: un curso de posgrado , Springer-Verlag. ISBN  0-387-27332-8 . págs. 71–72.
  2. ^ Hogg, RV, McKean, JW, Craig, AT (2005). Introducción a la estadística matemática (6.ª ed.). Upper Saddle River, NJ: Pearson Prentice Hall. ISBN 0-13-008507-3.{{cite book}}: CS1 maint: multiple names: authors list (link)Definición 2.5.1, página 109.
  3. ^ Hogg, RV, McKean, JW, Craig, AT (2005). Introducción a la estadística matemática (6.ª ed.). Upper Saddle River, NJ: Pearson Prentice Hall. ISBN 0-13-008507-3.{{cite book}}: CS1 maint: multiple names: authors list (link)Observación 2.6.1, pág. 120.
  4. ^ Boole, G. (1854). Una investigación de las leyes del pensamiento, en las que se fundan las teorías matemáticas de la lógica y la probabilidad. Walton y Maberly, Londres. Véase los límites "mayores" y "menores" de una conjunción de Boole en la página 299.
  5. ^ Fréchet, M. (1935). Generalizaciones del teoría de las probabilidades totales. Fundamentos Mathematicae 25 : 379–387.
  6. ^ ab EG Kounias (1968). "Límites para la probabilidad de una unión, con aplicaciones". Anales de estadística matemática . 39 (6): 2154–2158. doi : 10.1214/aoms/1177698049 .
  7. ^ ab D. Hunter (1976). "Un límite superior para la probabilidad de una unión". Journal of Applied Probability . 13 (3): 597–603. doi :10.2307/3212481. JSTOR  3212481.
  8. ^ ab KJ Worsley (1982). "Una desigualdad de Bonferroni mejorada y aplicaciones". Biometrika . 69 (2): 297–302. doi :10.1093/biomet/69.2.297.
  9. ^ Boros, Endre ; Scozzari, Andrea; Tardella, Fabio; Veneziani, Pierangela (2014). "Límites computables polinomialmente para la probabilidad de la unión de eventos". Matemáticas de la investigación de operaciones . 39 (4): 1311–1329. doi :10.1287/moor.2014.0657.
  10. ^ ab Ramachandra, Arjun Kodagehalli; Natarajan, Karthik (2023). "Límites de probabilidad ajustados con independencia por pares". Revista SIAM de Matemáticas Discretas . 37 (2): 516–555. arXiv : 2006.00516 . doi :10.1137/21M140829.
Retrieved from "https://en.wikipedia.org/w/index.php?title=Pairwise_independence&oldid=1212685336"