Cuando se trata de conjuntos de más de dos eventos, es necesario distinguir dos nociones de independencia. Los eventos se denominan independientes por pares si dos eventos cualesquiera en el conjunto son independientes entre sí, mientras que la independencia mutua (o independencia colectiva ) de los eventos significa, informalmente hablando, que cada evento es independiente de cualquier combinación de otros eventos en el conjunto. Existe una noción similar para conjuntos de variables aleatorias. La independencia mutua implica independencia por pares, pero no al revés. En la literatura estándar de teoría de la probabilidad, estadística y procesos estocásticos, la independencia sin más calificación generalmente se refiere a la independencia mutua.
Definición
Para eventos
Dos eventos
Dos eventos y son independientes (a menudo escritos como o , donde el último símbolo también se usa a menudo para la independencia condicional ) si y solo si su probabilidad conjunta es igual al producto de sus probabilidades: [2] : p. 29 [3] : p. 10
( Ec.1 )
indica que dos eventos independientes y tienen elementos comunes en su espacio muestral, de modo que no son mutuamente excluyentes (mutuamente excluyentes si y solo si ). La razón por la que esto define la independencia se aclara al reescribir con probabilidades condicionales como la probabilidad a la que ocurre el evento siempre que el evento haya ocurrido o se suponga que ocurrió:
y de manera similar
Por lo tanto, la ocurrencia de no afecta la probabilidad de , y viceversa. En otras palabras, y son independientes entre sí. Aunque las expresiones derivadas pueden parecer más intuitivas, no son la definición preferida, ya que las probabilidades condicionales pueden no estar definidas si o son 0. Además, la definición preferida deja en claro por simetría que cuando es independiente de , también es independiente de .
Impares
Expresado en términos de probabilidades , dos eventos son independientes si y solo si la razón de probabilidades de y es la unidad (1). De manera análoga a la probabilidad, esto es equivalente a que las probabilidades condicionales sean iguales a las probabilidades incondicionales:
o a las probabilidades de que un evento, dado el otro evento, sea igual que las probabilidades del evento, dado que el otro evento no ocurre:
La razón de probabilidades se puede definir como
o simétricamente para probabilidades de dado , y por lo tanto es 1 si y solo si los eventos son independientes.
Más de dos eventos
Un conjunto finito de eventos es independiente por pares si cada par de eventos es independiente [4] —es decir, si y solo si para todos los pares distintos de índices ,
( Ec.2 )
Un conjunto finito de eventos es mutuamente independiente si cada evento es independiente de cualquier intersección de los otros eventos [4] [3] : p. 11 —es decir, si y solo si para cada y para cada k índices ,
( Ec.3 )
Esta regla se denomina regla de multiplicación de eventos independientes. No es una condición única que implique únicamente el producto de todas las probabilidades de todos los eventos individuales, sino que debe cumplirse para todos los subconjuntos de eventos.
Para más de dos eventos, un conjunto de eventos mutuamente independientes es (por definición) independiente por pares; pero lo inverso no es necesariamente cierto. [2] : p. 30
Probabilidad de registro y contenido de información
Expresado en términos de probabilidad logarítmica , dos eventos son independientes si y solo si la probabilidad logarítmica del evento conjunto es la suma de la probabilidad logarítmica de los eventos individuales:
En la teoría de la información , la probabilidad logarítmica negativa se interpreta como contenido de información y, por lo tanto, dos eventos son independientes si y solo si el contenido de información del evento combinado es igual a la suma del contenido de información de los eventos individuales:
Dos variables aleatorias y son independientes si y sólo si (si y sólo si) los elementos del sistema π generado por ellas son independientes; es decir, para cada y , los eventos y son eventos independientes (como se definió anteriormente en la ecuación 1 ). Es decir, y con funciones de distribución acumulativa y , son independientes si y sólo si la variable aleatoria combinada tiene una función de distribución acumulativa conjunta [3] : p. 15
( Ec.4 )
o equivalentemente, si existen las densidades de probabilidad y y la densidad de probabilidad conjunta ,
Más de dos variables aleatorias
Un conjunto finito de variables aleatorias es independiente por pares si y solo si cada par de variables aleatorias es independiente. Incluso si el conjunto de variables aleatorias es independiente por pares, no es necesariamente independiente entre sí, como se define a continuación.
Un conjunto finito de variables aleatorias es mutuamente independiente si y solo si para cualquier secuencia de números , los eventos son eventos mutuamente independientes (como se definió anteriormente en la ecuación 3 ). Esto es equivalente a la siguiente condición sobre la función de distribución acumulativa conjunta . Un conjunto finito de variables aleatorias es mutuamente independiente si y solo si [3] : p. 16
( Ec.5 )
No es necesario aquí exigir que la distribución de probabilidad factorice para todos los subconjuntos de elementos posibles como en el caso de los eventos. Esto no es necesario porque eg implica .
Los que se inclinan por la teoría de la medida pueden preferir sustituir eventos por eventos en la definición anterior, donde es cualquier conjunto de Borel . Esa definición es exactamente equivalente a la anterior cuando los valores de las variables aleatorias son números reales . Tiene la ventaja de funcionar también para variables aleatorias de valores complejos o para variables aleatorias que toman valores en cualquier espacio medible (que incluye espacios topológicos dotados de σ-álgebras apropiadas).
Para vectores aleatorios de valor real
Dos vectores aleatorios y se llaman independientes si [5] : p. 187
( Ec.6 )
donde y denotan las funciones de distribución acumulativa de y y denotan su función de distribución acumulativa conjunta. La independencia de y a menudo se denota por . Escritos por componentes, y se denominan independientes si
Para procesos estocásticos
Para un proceso estocástico
La definición de independencia puede extenderse de los vectores aleatorios a un proceso estocástico . Por lo tanto, se requiere que un proceso estocástico independiente tenga como requisito que las variables aleatorias obtenidas mediante el muestreo del proceso en cualquier momento sean variables aleatorias independientes para cualquier . [6] : p. 163
Formalmente, un proceso estocástico se denomina independiente, si y solo si para todos y para todos
( Ec.7 )
donde . La independencia de un proceso estocástico es una propiedad dentro de un proceso estocástico, no entre dos procesos estocásticos.
Para dos procesos estocásticos
La independencia de dos procesos estocásticos es una propiedad entre dos procesos estocásticos y que están definidos en el mismo espacio de probabilidad . Formalmente, se dice que dos procesos estocásticos y son independientes si para todos y para todos , los vectores aleatorios y son independientes, [7] : p. 515 es decir, si
( Ec.8 )
Álgebras σ independientes
Las definiciones anteriores ( Ec.1 y Ec.2 ) se generalizan mediante la siguiente definición de independencia para σ-álgebras . Sea un espacio de probabilidad y sean y dos sub-σ-álgebras de . y se dice que son independientes si, siempre que y ,
De la misma manera, se dice que una familia finita de σ-álgebras , donde es un conjunto índice , es independiente si y solo si
y se dice que una familia infinita de σ-álgebras es independiente si todas sus subfamilias finitas son independientes.
La nueva definición se relaciona muy directamente con las anteriores:
Dos eventos son independientes (en el sentido antiguo) si y sólo si las σ-álgebras que generan son independientes (en el sentido nuevo). La σ-álgebra generada por un evento es, por definición,
Dos variables aleatorias y definidas sobre son independientes (en el sentido antiguo) si y solo si las σ-álgebras que generan son independientes (en el sentido nuevo). La σ-álgebra generada por una variable aleatoria que toma valores en algún espacio medible consiste, por definición, en todos los subconjuntos de de la forma , donde es cualquier subconjunto medible de .
Usando esta definición, es fácil demostrar que si y son variables aleatorias y es constante, entonces y son independientes, ya que el σ-álgebra generado por una variable aleatoria constante es el σ-álgebra trivial . Los eventos de probabilidad cero no pueden afectar la independencia, por lo que la independencia también se cumple si es solo Pr- casi seguramente constante.
Propiedades
Auto-independencia
Nótese que un evento es independiente de sí mismo si y sólo si
Por lo tanto, un evento es independiente de sí mismo si y sólo si ocurre casi con seguridad o su complemento ocurre casi con seguridad; este hecho es útil para probar leyes cero-uno . [8]
Expectativa y covarianza
Si y son variables aleatorias estadísticamente independientes, entonces el operador de expectativa tiene la propiedad
Lo inverso no se cumple: si dos variables aleatorias tienen una covarianza de 0, aún así pueden no ser independientes.
De manera similar, para dos procesos estocásticos y : si son independientes, entonces no están correlacionados . [10] : p. 151
Función característica
Dos variables aleatorias y son independientes si y sólo si la función característica del vector aleatorio satisface
En particular, la función característica de su suma es el producto de sus funciones características marginales:
aunque la implicación inversa no es cierta. Las variables aleatorias que satisfacen la última condición se denominan subindependientes .
Ejemplos
Tirar dados
El evento de obtener un 6 la primera vez que se lanza un dado y el evento de obtener un 6 la segunda vez son independientes . Por el contrario, el evento de obtener un 6 la primera vez que se lanza un dado y el evento de que la suma de los números vistos en el primer y segundo intento sea 8 no son independientes.
Tarjetas para dibujar
Si se extraen dos cartas de una baraja con reposición, el suceso de sacar una carta roja en el primer intento y el de sacar una carta roja en el segundo intento son independientes . Por el contrario, si se extraen dos cartas sin reposición de una baraja, el suceso de sacar una carta roja en el primer intento y el de sacar una carta roja en el segundo intento no son independientes, porque una baraja a la que se le ha quitado una carta roja tiene proporcionalmente menos cartas rojas.
Independencia mutua y por pares
Considere los dos espacios de probabilidad que se muestran. En ambos casos, y . Los eventos en el primer espacio son independientes por pares porque , y ; pero los tres eventos no son mutuamente independientes. Los eventos en el segundo espacio son independientes por pares y mutuamente independientes. Para ilustrar la diferencia, considere el condicionamiento sobre dos eventos. En el caso de independencia por pares, aunque cualquier evento es independiente de cada uno de los otros dos individualmente, no es independiente de la intersección de los otros dos:
En el caso mutuamente independiente, sin embargo,
Triple independencia pero no independencia por pares
Es posible crear un ejemplo de tres eventos en el que
y, sin embargo, no hay dos de los tres eventos que sean independientes entre sí (y, por lo tanto, el conjunto de eventos no es mutuamente independiente). [11] Este ejemplo muestra que la independencia mutua implica requisitos sobre los productos de las probabilidades de todas las combinaciones de eventos, no solo de los eventos individuales como en este ejemplo.
Independencia condicional
Para eventos
Los eventos y son condicionalmente independientes dado un evento cuando
.
Para variables aleatorias
Intuitivamente, dos variables aleatorias y son condicionalmente independientes si, una vez conocido, el valor de no agrega ninguna información adicional sobre . Por ejemplo, dos mediciones y de la misma cantidad subyacente no son independientes, pero son condicionalmente independientes (a menos que los errores en las dos mediciones estén conectados de alguna manera).
para todos , y tales que . Por otra parte, si las variables aleatorias son continuas y tienen una función de densidad de probabilidad conjunta , entonces y son condicionalmente independientes dado si
para todos los números reales , y tales que .
Si discretos y son condicionalmente independientes dado , entonces
para cualquier , y con . Es decir, la distribución condicional para y dada es la misma que la dada sola. Una ecuación similar se cumple para las funciones de densidad de probabilidad condicional en el caso continuo.
La independencia puede verse como un tipo especial de independencia condicional, ya que la probabilidad puede verse como un tipo de probabilidad condicional dado que no hay eventos.
Historia
Antes de 1933, la independencia, en teoría de la probabilidad, se definía de manera verbal. Por ejemplo, de Moivre dio la siguiente definición: “Dos eventos son independientes cuando no tienen conexión entre sí y la ocurrencia de uno no favorece ni obstaculiza la ocurrencia del otro”. [12] Si hay n eventos independientes, la probabilidad de que todos ellos ocurran se calculaba como el producto de las probabilidades de estos n eventos. Aparentemente, existía la convicción de que esta fórmula era una consecuencia de la definición anterior (a veces se la llamaba Teorema de la Multiplicación). Por supuesto, una prueba de su afirmación no puede funcionar sin suposiciones tácitas más formales.
La definición de independencia, dada en este artículo, se convirtió en la definición estándar (ahora utilizada en todos los libros) después de que apareció en 1933 como parte de la axiomatización de probabilidad de Kolmogorov. [13] Kolmogorov se la atribuyó a SN Bernstein y citó una publicación que había aparecido en ruso en 1927. [14]
Desafortunadamente, tanto Bernstein como Kolmogorov no conocían el trabajo de Georg Bohlmann . Bohlmann había dado la misma definición para dos eventos en 1901 [15] y para n eventos en 1908 [16] . En el último artículo, estudió su noción en detalle. Por ejemplo, dio el primer ejemplo que muestra que la independencia por pares no implica independencia mutua. Incluso hoy, rara vez se cita a Bohlmann. Se puede encontrar más sobre su trabajo en On the contributes of Georg Bohlmann to probability theory de de:Ulrich Krengel. [17]
^ Park, Kun Il (2018). Fundamentos de probabilidad y procesos estocásticos con aplicaciones a las comunicaciones . Springer. ISBN978-3-319-68074-3.
^ George, Glyn, "Prueba de independencia de tres eventos", Mathematical Gazette 88, noviembre de 2004, 568. PDF
^ Citado según: Introducción a la probabilidad de Grinstead y Snell. En: The CHANCE Project. Versión del 4 de julio de 2006.
^ Kolmogorov, Andrey (1933). Grundbegriffe der Wahrscheinlichkeitsrechnung (en alemán). Berlín: Julius Springer Traducción: Kolmogorov, Andrey (1956). Traducción:Fundamentos de la teoría de la probabilidad (2ª ed.). Nueva York: Chelsea. ISBN 978-0-8284-0023-7.
^ SN Bernstein , Probability Theory (en ruso), Moscú, 1927 (4 ediciones, la última en 1946)
^ Georg Bohlmann : Lebensversicherungsmathematik, Encyklop¨adie der mathematischen Wissenschaften, Bd I, Teil 2, Artikel ID 4b (1901), 852–917
^ Georg Bohlmann : Die Grundbegriffe der Wahrscheinlichkeitsrechnung in ihrer Anwendung auf die Lebensversichrung, Atti del IV. Congr. Int. dei Matem. Rom, Bd. III (1908), 244–278.
^ de:Ulrich Krengel: Sobre las contribuciones de Georg Bohlmann a la teoría de la probabilidad (PDF; 6,4 MB), Revista electrónica de historia de la probabilidad y la estadística, 2011.
Enlaces externos
Medios relacionados con Independencia (teoría de la probabilidad) en Wikimedia Commons