Conjunto de variables aleatorias de las cuales dos son independientes
En teoría de probabilidad , una colección de variables aleatorias independientes por pares es un conjunto de variables aleatorias, dos de las cuales son independientes . [1] Cualquier colección de variables aleatorias mutuamente independientes es independiente por pares, pero algunas colecciones independientes por pares no son mutuamente independientes. Las variables aleatorias independientes por pares con varianza finita no están correlacionadas .
Un par de variables aleatorias X e Y son independientes si y solo si el vector aleatorio ( X , Y ) con función de distribución acumulativa conjunta (CDF) satisface
o equivalentemente, su densidad conjunta satisface
Es decir, la distribución conjunta es igual al producto de las distribuciones marginales. [2]
A menos que no quede claro en el contexto, en la práctica el modificador "mutuo" suele omitirse para que independencia signifique independencia mutua . Una afirmación como " X , Y , Z son variables aleatorias independientes" significa que X , Y , Z son mutuamente independientes.
Ejemplo
La independencia por pares no implica independencia mutua, como lo demuestra el siguiente ejemplo atribuido a S. Bernstein. [3]
Supongamos que X e Y son dos lanzamientos independientes de una moneda justa, donde designamos 1 para cara y 0 para cruz. Sea la tercera variable aleatoria Z igual a 1 si exactamente uno de esos lanzamientos de moneda resultó en "cara", y 0 en caso contrario (es decir, ). Entonces, en conjunto, la tripleta ( X , Y , Z ) tiene la siguiente distribución de probabilidad :
Dado que cada una de las distribuciones conjuntas por pares es igual al producto de sus respectivas distribuciones marginales, las variables son independientes por pares:
X e Y son independientes, y
X y Z son independientes, y
Y y Z son independientes.
Sin embargo, X , Y y Z no son mutuamente independientes , ya que el lado izquierdo es igual, por ejemplo, a 1/4 para ( x , y , z ) = (0, 0, 0), mientras que el lado derecho es igual a 1/8 para ( x , y , z ) = (0, 0, 0). De hecho, cualquiera de las dos está completamente determinada por las otras dos (cualquiera de las dos X , Y , Z es la suma (módulo 2) de las otras). Esto es lo más lejos que pueden llegar de la independencia las variables aleatorias.
Probabilidad de la unión de eventos independientes por pares
donde las probabilidades se ordenan en orden creciente como . El límite estricto en la ecuación 1 depende solo de la suma de las probabilidades más pequeñas y la probabilidad más grande . Por lo tanto, si bien el orden de las probabilidades juega un papel en la derivación del límite, el orden entre las probabilidades más pequeñas es intrascendente ya que solo se utiliza su suma.
Como se muestra en Ramachandra-Natarajan, [10] se puede verificar fácilmente que la relación de los dos límites estrictos en la ecuación 2 y la ecuación 1 está limitada superiormente por donde se alcanza el valor máximo de cuando
,
donde las probabilidades se ordenan en orden creciente como . En otras palabras, en el mejor de los casos, el límite de independencia por pares en la ecuación 1 proporciona una mejora de sobre el límite univariante en la ecuación 2 .
Generalización
De manera más general, podemos hablar de independencia k -wise, para cualquier k ≥ 2. La idea es similar: un conjunto de variables aleatorias es k -wise independiente si cada subconjunto de tamaño k de esas variables es independiente. La independencia k -wise se ha utilizado en informática teórica, donde se utilizó para demostrar un teorema sobre el problema MAXEkSAT .
^ Gut, A. (2005) Probabilidad: un curso de posgrado , Springer-Verlag. ISBN 0-387-27332-8 . págs. 71–72.
^ Hogg, RV, McKean, JW, Craig, AT (2005). Introducción a la estadística matemática (6.ª ed.). Upper Saddle River, NJ: Pearson Prentice Hall. ISBN0-13-008507-3.{{cite book}}: CS1 maint: multiple names: authors list (link)Definición 2.5.1, página 109.
^ Hogg, RV, McKean, JW, Craig, AT (2005). Introducción a la estadística matemática (6.ª ed.). Upper Saddle River, NJ: Pearson Prentice Hall. ISBN0-13-008507-3.{{cite book}}: CS1 maint: multiple names: authors list (link)Observación 2.6.1, pág. 120.
^ Boole, G. (1854). Una investigación de las leyes del pensamiento, en las que se fundan las teorías matemáticas de la lógica y la probabilidad. Walton y Maberly, Londres. Véase los límites "mayores" y "menores" de una conjunción de Boole en la página 299.
^ Fréchet, M. (1935). Generalizaciones del teoría de las probabilidades totales. Fundamentos Mathematicae 25 : 379–387.
^ ab EG Kounias (1968). "Límites para la probabilidad de una unión, con aplicaciones". Anales de estadística matemática . 39 (6): 2154–2158. doi : 10.1214/aoms/1177698049 .
^ ab D. Hunter (1976). "Un límite superior para la probabilidad de una unión". Journal of Applied Probability . 13 (3): 597–603. doi :10.2307/3212481. JSTOR 3212481.
^ ab KJ Worsley (1982). "Una desigualdad de Bonferroni mejorada y aplicaciones". Biometrika . 69 (2): 297–302. doi :10.1093/biomet/69.2.297.
^ Boros, Endre ; Scozzari, Andrea; Tardella, Fabio; Veneziani, Pierangela (2014). "Límites computables polinomialmente para la probabilidad de la unión de eventos". Matemáticas de la investigación de operaciones . 39 (4): 1311–1329. doi :10.1287/moor.2014.0657.
^ ab Ramachandra, Arjun Kodagehalli; Natarajan, Karthik (2023). "Límites de probabilidad ajustados con independencia por pares". Revista SIAM de Matemáticas Discretas . 37 (2): 516–555. arXiv : 2006.00516 . doi :10.1137/21M140829.