Independencia (teoría de la probabilidad)

Cuando la ocurrencia de un evento no afecta la probabilidad de otro

La independencia es una noción fundamental en la teoría de la probabilidad , como en la estadística y en la teoría de los procesos estocásticos . Dos eventos son independientes , estadísticamente independientes o estocásticamente independientes [1] si, informalmente hablando, la ocurrencia de uno no afecta la probabilidad de ocurrencia del otro o, equivalentemente, no afecta las probabilidades . De manera similar, dos variables aleatorias son independientes si la realización de una no afecta la distribución de probabilidad de la otra.

Cuando se trata de conjuntos de más de dos eventos, es necesario distinguir dos nociones de independencia. Los eventos se denominan independientes por pares si dos eventos cualesquiera en el conjunto son independientes entre sí, mientras que la independencia mutua (o independencia colectiva ) de los eventos significa, informalmente hablando, que cada evento es independiente de cualquier combinación de otros eventos en el conjunto. Existe una noción similar para conjuntos de variables aleatorias. La independencia mutua implica independencia por pares, pero no al revés. En la literatura estándar de teoría de la probabilidad, estadística y procesos estocásticos, la independencia sin más calificación generalmente se refiere a la independencia mutua.

Definición

Para eventos

Dos eventos

Dos eventos y son independientes (a menudo escritos como o , donde el último símbolo también se usa a menudo para la independencia condicional ) si y solo si su probabilidad conjunta es igual al producto de sus probabilidades: [2] : p. 29  [3] : p. 10  A {\estilo de visualización A} B {\estilo de visualización B} A B {\estilo de visualización A\perp B} A B {\displaystyle A\perp \!\!\!\perp B}

PAG ( A B ) = PAG ( A ) PAG ( B ) {\displaystyle \mathrm {P} (A\cap B)=\mathrm {P} (A)\mathrm {P} (B)} ( Ec.1 )

A B {\displaystyle A\cap B\neq \emptyset } indica que dos eventos independientes y tienen elementos comunes en su espacio muestral, de modo que no son mutuamente excluyentes (mutuamente excluyentes si y solo si ). La razón por la que esto define la independencia se aclara al reescribir con probabilidades condicionales como la probabilidad a la que ocurre el evento siempre que el evento haya ocurrido o se suponga que ocurrió: A {\displaystyle A} B {\displaystyle B} A B = {\displaystyle A\cap B=\emptyset } P ( A B ) = P ( A B ) P ( B ) {\displaystyle P(A\mid B)={\frac {P(A\cap B)}{P(B)}}} A {\displaystyle A} B {\displaystyle B}

P ( A B ) = P ( A ) P ( B ) P ( A B ) = P ( A B ) P ( B ) = P ( A ) . {\displaystyle \mathrm {P} (A\cap B)=\mathrm {P} (A)\mathrm {P} (B)\iff \mathrm {P} (A\mid B)={\frac {\mathrm {P} (A\cap B)}{\mathrm {P} (B)}}=\mathrm {P} (A).}

y de manera similar

P ( A B ) = P ( A ) P ( B ) P ( B A ) = P ( A B ) P ( A ) = P ( B ) . {\displaystyle \mathrm {P} (A\cap B)=\mathrm {P} (A)\mathrm {P} (B)\iff \mathrm {P} (B\mid A)={\frac {\mathrm {P} (A\cap B)}{\mathrm {P} (A)}}=\mathrm {P} (B).}

Por lo tanto, la ocurrencia de no afecta la probabilidad de , y viceversa. En otras palabras, y son independientes entre sí. Aunque las expresiones derivadas pueden parecer más intuitivas, no son la definición preferida, ya que las probabilidades condicionales pueden no estar definidas si o son 0. Además, la definición preferida deja en claro por simetría que cuando es independiente de , también es independiente de . B {\displaystyle B} A {\displaystyle A} A {\displaystyle A} B {\displaystyle B} P ( A ) {\displaystyle \mathrm {P} (A)} P ( B ) {\displaystyle \mathrm {P} (B)} A {\displaystyle A} B {\displaystyle B} B {\displaystyle B} A {\displaystyle A}

Impares

Expresado en términos de probabilidades , dos eventos son independientes si y solo si la razón de probabilidades de ⁠ ⁠ A {\displaystyle A} y ⁠ ⁠ B {\displaystyle B} es la unidad (1). De manera análoga a la probabilidad, esto es equivalente a que las probabilidades condicionales sean iguales a las probabilidades incondicionales:

O ( A B ) = O ( A )  and  O ( B A ) = O ( B ) , {\displaystyle O(A\mid B)=O(A){\text{ and }}O(B\mid A)=O(B),}

o a las probabilidades de que un evento, dado el otro evento, sea igual que las probabilidades del evento, dado que el otro evento no ocurre:

O ( A B ) = O ( A ¬ B )  and  O ( B A ) = O ( B ¬ A ) . {\displaystyle O(A\mid B)=O(A\mid \neg B){\text{ and }}O(B\mid A)=O(B\mid \neg A).}

La razón de probabilidades se puede definir como

O ( A B ) : O ( A ¬ B ) , {\displaystyle O(A\mid B):O(A\mid \neg B),}

o simétricamente para probabilidades de ⁠ ⁠ B {\displaystyle B} dado ⁠ ⁠ A {\displaystyle A} , y por lo tanto es 1 si y solo si los eventos son independientes.

Más de dos eventos

Un conjunto finito de eventos es independiente por pares si cada par de eventos es independiente [4] —es decir, si y solo si para todos los pares distintos de índices , { A i } i = 1 n {\displaystyle \{A_{i}\}_{i=1}^{n}} m , k {\displaystyle m,k}

P ( A m A k ) = P ( A m ) P ( A k ) {\displaystyle \mathrm {P} (A_{m}\cap A_{k})=\mathrm {P} (A_{m})\mathrm {P} (A_{k})} ( Ec.2 )

Un conjunto finito de eventos es mutuamente independiente si cada evento es independiente de cualquier intersección de los otros eventos [4] [3] : p. 11  —es decir, si y solo si para cada y para cada k índices , k n {\displaystyle k\leq n} 1 i 1 < < i k n {\displaystyle 1\leq i_{1}<\dots <i_{k}\leq n}

P ( j = 1 k A i j ) = j = 1 k P ( A i j ) {\displaystyle \mathrm {P} \left(\bigcap _{j=1}^{k}A_{i_{j}}\right)=\prod _{j=1}^{k}\mathrm {P} (A_{i_{j}})} ( Ec.3 )

Esta regla se denomina regla de multiplicación de eventos independientes. No es una condición única que implique únicamente el producto de todas las probabilidades de todos los eventos individuales, sino que debe cumplirse para todos los subconjuntos de eventos.

Para más de dos eventos, un conjunto de eventos mutuamente independientes es (por definición) independiente por pares; pero lo inverso no es necesariamente cierto. [2] : p. 30 

Probabilidad de registro y contenido de información

Expresado en términos de probabilidad logarítmica , dos eventos son independientes si y solo si la probabilidad logarítmica del evento conjunto es la suma de la probabilidad logarítmica de los eventos individuales:

log P ( A B ) = log P ( A ) + log P ( B ) {\displaystyle \log \mathrm {P} (A\cap B)=\log \mathrm {P} (A)+\log \mathrm {P} (B)}

En la teoría de la información , la probabilidad logarítmica negativa se interpreta como contenido de información y, por lo tanto, dos eventos son independientes si y solo si el contenido de información del evento combinado es igual a la suma del contenido de información de los eventos individuales:

I ( A B ) = I ( A ) + I ( B ) {\displaystyle \mathrm {I} (A\cap B)=\mathrm {I} (A)+\mathrm {I} (B)}

Consulte el apartado Contenido de información § Aditividad de eventos independientes para obtener más detalles.

Para variables aleatorias de valor real

Dos variables aleatorias

Dos variables aleatorias y son independientes si y sólo si (si y sólo si) los elementos del sistema π generado por ellas son independientes; es decir, para cada y , los eventos y son eventos independientes (como se definió anteriormente en la ecuación 1 ). Es decir, y con funciones de distribución acumulativa y , son independientes si y sólo si la variable aleatoria combinada tiene una función de distribución acumulativa conjunta [3] : p. 15  X {\displaystyle X} Y {\displaystyle Y} x {\displaystyle x} y {\displaystyle y} { X x } {\displaystyle \{X\leq x\}} { Y y } {\displaystyle \{Y\leq y\}} X {\displaystyle X} Y {\displaystyle Y} F X ( x ) {\displaystyle F_{X}(x)} F Y ( y ) {\displaystyle F_{Y}(y)} ( X , Y ) {\displaystyle (X,Y)}

F X , Y ( x , y ) = F X ( x ) F Y ( y ) for all  x , y {\displaystyle F_{X,Y}(x,y)=F_{X}(x)F_{Y}(y)\quad {\text{for all }}x,y} ( Ec.4 )

o equivalentemente, si existen las densidades de probabilidad y y la densidad de probabilidad conjunta , f X ( x ) {\displaystyle f_{X}(x)} f Y ( y ) {\displaystyle f_{Y}(y)} f X , Y ( x , y ) {\displaystyle f_{X,Y}(x,y)}

f X , Y ( x , y ) = f X ( x ) f Y ( y ) for all  x , y . {\displaystyle f_{X,Y}(x,y)=f_{X}(x)f_{Y}(y)\quad {\text{for all }}x,y.}

Más de dos variables aleatorias

Un conjunto finito de variables aleatorias es independiente por pares si y solo si cada par de variables aleatorias es independiente. Incluso si el conjunto de variables aleatorias es independiente por pares, no es necesariamente independiente entre sí, como se define a continuación. n {\displaystyle n} { X 1 , , X n } {\displaystyle \{X_{1},\ldots ,X_{n}\}}

Un conjunto finito de variables aleatorias es mutuamente independiente si y solo si para cualquier secuencia de números , los eventos son eventos mutuamente independientes (como se definió anteriormente en la ecuación 3 ). Esto es equivalente a la siguiente condición sobre la función de distribución acumulativa conjunta . Un conjunto finito de variables aleatorias es mutuamente independiente si y solo si [3] : p. 16  n {\displaystyle n} { X 1 , , X n } {\displaystyle \{X_{1},\ldots ,X_{n}\}} { x 1 , , x n } {\displaystyle \{x_{1},\ldots ,x_{n}\}} { X 1 x 1 } , , { X n x n } {\displaystyle \{X_{1}\leq x_{1}\},\ldots ,\{X_{n}\leq x_{n}\}} F X 1 , , X n ( x 1 , , x n ) {\displaystyle F_{X_{1},\ldots ,X_{n}}(x_{1},\ldots ,x_{n})} n {\displaystyle n} { X 1 , , X n } {\displaystyle \{X_{1},\ldots ,X_{n}\}}

F X 1 , , X n ( x 1 , , x n ) = F X 1 ( x 1 ) F X n ( x n ) for all  x 1 , , x n {\displaystyle F_{X_{1},\ldots ,X_{n}}(x_{1},\ldots ,x_{n})=F_{X_{1}}(x_{1})\cdot \ldots \cdot F_{X_{n}}(x_{n})\quad {\text{for all }}x_{1},\ldots ,x_{n}} ( Ec.5 )

No es necesario aquí exigir que la distribución de probabilidad factorice para todos los subconjuntos de elementos posibles como en el caso de los eventos. Esto no es necesario porque eg implica . k {\displaystyle k} n {\displaystyle n} F X 1 , X 2 , X 3 ( x 1 , x 2 , x 3 ) = F X 1 ( x 1 ) F X 2 ( x 2 ) F X 3 ( x 3 ) {\displaystyle F_{X_{1},X_{2},X_{3}}(x_{1},x_{2},x_{3})=F_{X_{1}}(x_{1})\cdot F_{X_{2}}(x_{2})\cdot F_{X_{3}}(x_{3})} F X 1 , X 3 ( x 1 , x 3 ) = F X 1 ( x 1 ) F X 3 ( x 3 ) {\displaystyle F_{X_{1},X_{3}}(x_{1},x_{3})=F_{X_{1}}(x_{1})\cdot F_{X_{3}}(x_{3})}

Los que se inclinan por la teoría de la medida pueden preferir sustituir eventos por eventos en la definición anterior, donde es cualquier conjunto de Borel . Esa definición es exactamente equivalente a la anterior cuando los valores de las variables aleatorias son números reales . Tiene la ventaja de funcionar también para variables aleatorias de valores complejos o para variables aleatorias que toman valores en cualquier espacio medible (que incluye espacios topológicos dotados de σ-álgebras apropiadas). { X A } {\displaystyle \{X\in A\}} { X x } {\displaystyle \{X\leq x\}} A {\displaystyle A}

Para vectores aleatorios de valor real

Dos vectores aleatorios y se llaman independientes si [5] : p. 187  X = ( X 1 , , X m ) T {\displaystyle \mathbf {X} =(X_{1},\ldots ,X_{m})^{\mathrm {T} }} Y = ( Y 1 , , Y n ) T {\displaystyle \mathbf {Y} =(Y_{1},\ldots ,Y_{n})^{\mathrm {T} }}

F X , Y ( x , y ) = F X ( x ) F Y ( y ) for all  x , y {\displaystyle F_{\mathbf {X,Y} }(\mathbf {x,y} )=F_{\mathbf {X} }(\mathbf {x} )\cdot F_{\mathbf {Y} }(\mathbf {y} )\quad {\text{for all }}\mathbf {x} ,\mathbf {y} } ( Ec.6 )

donde y denotan las funciones de distribución acumulativa de y y denotan su función de distribución acumulativa conjunta. La independencia de y a menudo se denota por . Escritos por componentes, y se denominan independientes si F X ( x ) {\displaystyle F_{\mathbf {X} }(\mathbf {x} )} F Y ( y ) {\displaystyle F_{\mathbf {Y} }(\mathbf {y} )} X {\displaystyle \mathbf {X} } Y {\displaystyle \mathbf {Y} } F X , Y ( x , y ) {\displaystyle F_{\mathbf {X,Y} }(\mathbf {x,y} )} X {\displaystyle \mathbf {X} } Y {\displaystyle \mathbf {Y} } X Y {\displaystyle \mathbf {X} \perp \!\!\!\perp \mathbf {Y} } X {\displaystyle \mathbf {X} } Y {\displaystyle \mathbf {Y} }

F X 1 , , X m , Y 1 , , Y n ( x 1 , , x m , y 1 , , y n ) = F X 1 , , X m ( x 1 , , x m ) F Y 1 , , Y n ( y 1 , , y n ) for all  x 1 , , x m , y 1 , , y n . {\displaystyle F_{X_{1},\ldots ,X_{m},Y_{1},\ldots ,Y_{n}}(x_{1},\ldots ,x_{m},y_{1},\ldots ,y_{n})=F_{X_{1},\ldots ,X_{m}}(x_{1},\ldots ,x_{m})\cdot F_{Y_{1},\ldots ,Y_{n}}(y_{1},\ldots ,y_{n})\quad {\text{for all }}x_{1},\ldots ,x_{m},y_{1},\ldots ,y_{n}.}

Para procesos estocásticos

Para un proceso estocástico

La definición de independencia puede extenderse de los vectores aleatorios a un proceso estocástico . Por lo tanto, se requiere que un proceso estocástico independiente tenga como requisito que las variables aleatorias obtenidas mediante el muestreo del proceso en cualquier momento sean variables aleatorias independientes para cualquier . [6] : p. 163  n {\displaystyle n} t 1 , , t n {\displaystyle t_{1},\ldots ,t_{n}} n {\displaystyle n}

Formalmente, un proceso estocástico se denomina independiente, si y solo si para todos y para todos { X t } t T {\displaystyle \left\{X_{t}\right\}_{t\in {\mathcal {T}}}} n N {\displaystyle n\in \mathbb {N} } t 1 , , t n T {\displaystyle t_{1},\ldots ,t_{n}\in {\mathcal {T}}}

F X t 1 , , X t n ( x 1 , , x n ) = F X t 1 ( x 1 ) F X t n ( x n ) for all  x 1 , , x n {\displaystyle F_{X_{t_{1}},\ldots ,X_{t_{n}}}(x_{1},\ldots ,x_{n})=F_{X_{t_{1}}}(x_{1})\cdot \ldots \cdot F_{X_{t_{n}}}(x_{n})\quad {\text{for all }}x_{1},\ldots ,x_{n}} ( Ec.7 )

donde . La independencia de un proceso estocástico es una propiedad dentro de un proceso estocástico, no entre dos procesos estocásticos. F X t 1 , , X t n ( x 1 , , x n ) = P ( X ( t 1 ) x 1 , , X ( t n ) x n ) {\displaystyle F_{X_{t_{1}},\ldots ,X_{t_{n}}}(x_{1},\ldots ,x_{n})=\mathrm {P} (X(t_{1})\leq x_{1},\ldots ,X(t_{n})\leq x_{n})}

Para dos procesos estocásticos

La independencia de dos procesos estocásticos es una propiedad entre dos procesos estocásticos y que están definidos en el mismo espacio de probabilidad . Formalmente, se dice que dos procesos estocásticos y son independientes si para todos y para todos , los vectores aleatorios y son independientes, [7] : p. 515  es decir, si { X t } t T {\displaystyle \left\{X_{t}\right\}_{t\in {\mathcal {T}}}} { Y t } t T {\displaystyle \left\{Y_{t}\right\}_{t\in {\mathcal {T}}}} ( Ω , F , P ) {\displaystyle (\Omega ,{\mathcal {F}},P)} { X t } t T {\displaystyle \left\{X_{t}\right\}_{t\in {\mathcal {T}}}} { Y t } t T {\displaystyle \left\{Y_{t}\right\}_{t\in {\mathcal {T}}}} n N {\displaystyle n\in \mathbb {N} } t 1 , , t n T {\displaystyle t_{1},\ldots ,t_{n}\in {\mathcal {T}}} ( X ( t 1 ) , , X ( t n ) ) {\displaystyle (X(t_{1}),\ldots ,X(t_{n}))} ( Y ( t 1 ) , , Y ( t n ) ) {\displaystyle (Y(t_{1}),\ldots ,Y(t_{n}))}

F X t 1 , , X t n , Y t 1 , , Y t n ( x 1 , , x n , y 1 , , y n ) = F X t 1 , , X t n ( x 1 , , x n ) F Y t 1 , , Y t n ( y 1 , , y n ) for all  x 1 , , x n {\displaystyle F_{X_{t_{1}},\ldots ,X_{t_{n}},Y_{t_{1}},\ldots ,Y_{t_{n}}}(x_{1},\ldots ,x_{n},y_{1},\ldots ,y_{n})=F_{X_{t_{1}},\ldots ,X_{t_{n}}}(x_{1},\ldots ,x_{n})\cdot F_{Y_{t_{1}},\ldots ,Y_{t_{n}}}(y_{1},\ldots ,y_{n})\quad {\text{for all }}x_{1},\ldots ,x_{n}} ( Ec.8 )

Álgebras σ independientes

Las definiciones anteriores ( Ec.1 y Ec.2 ) se generalizan mediante la siguiente definición de independencia para σ-álgebras . Sea un espacio de probabilidad y sean y dos sub-σ-álgebras de . y se dice que son independientes si, siempre que y , ( Ω , Σ , P ) {\displaystyle (\Omega ,\Sigma ,\mathrm {P} )} A {\displaystyle {\mathcal {A}}} B {\displaystyle {\mathcal {B}}} Σ {\displaystyle \Sigma } A {\displaystyle {\mathcal {A}}} B {\displaystyle {\mathcal {B}}} A A {\displaystyle A\in {\mathcal {A}}} B B {\displaystyle B\in {\mathcal {B}}}

P ( A B ) = P ( A ) P ( B ) . {\displaystyle \mathrm {P} (A\cap B)=\mathrm {P} (A)\mathrm {P} (B).}

De la misma manera, se dice que una familia finita de σ-álgebras , donde es un conjunto índice , es independiente si y solo si ( τ i ) i I {\displaystyle (\tau _{i})_{i\in I}} I {\displaystyle I}

( A i ) i I i I τ i   :   P ( i I A i ) = i I P ( A i ) {\displaystyle \forall \left(A_{i}\right)_{i\in I}\in \prod \nolimits _{i\in I}\tau _{i}\ :\ \mathrm {P} \left(\bigcap \nolimits _{i\in I}A_{i}\right)=\prod \nolimits _{i\in I}\mathrm {P} \left(A_{i}\right)}

y se dice que una familia infinita de σ-álgebras es independiente si todas sus subfamilias finitas son independientes.

La nueva definición se relaciona muy directamente con las anteriores:

  • Dos eventos son independientes (en el sentido antiguo) si y sólo si las σ-álgebras que generan son independientes (en el sentido nuevo). La σ-álgebra generada por un evento es, por definición, E Σ {\displaystyle E\in \Sigma }
σ ( { E } ) = { , E , Ω E , Ω } . {\displaystyle \sigma (\{E\})=\{\emptyset ,E,\Omega \setminus E,\Omega \}.}
  • Dos variables aleatorias y definidas sobre son independientes (en el sentido antiguo) si y solo si las σ-álgebras que generan son independientes (en el sentido nuevo). La σ-álgebra generada por una variable aleatoria que toma valores en algún espacio medible consiste, por definición, en todos los subconjuntos de de la forma , donde es cualquier subconjunto medible de . X {\displaystyle X} Y {\displaystyle Y} Ω {\displaystyle \Omega } X {\displaystyle X} S {\displaystyle S} Ω {\displaystyle \Omega } X 1 ( U ) {\displaystyle X^{-1}(U)} U {\displaystyle U} S {\displaystyle S}

Usando esta definición, es fácil demostrar que si y son variables aleatorias y es constante, entonces y son independientes, ya que el σ-álgebra generado por una variable aleatoria constante es el σ-álgebra trivial . Los eventos de probabilidad cero no pueden afectar la independencia, por lo que la independencia también se cumple si es solo Pr- casi seguramente constante. X {\displaystyle X} Y {\displaystyle Y} Y {\displaystyle Y} X {\displaystyle X} Y {\displaystyle Y} { , Ω } {\displaystyle \{\varnothing ,\Omega \}} Y {\displaystyle Y}

Propiedades

Auto-independencia

Nótese que un evento es independiente de sí mismo si y sólo si

P ( A ) = P ( A A ) = P ( A ) P ( A ) P ( A ) = 0  or  P ( A ) = 1. {\displaystyle \mathrm {P} (A)=\mathrm {P} (A\cap A)=\mathrm {P} (A)\cdot \mathrm {P} (A)\iff \mathrm {P} (A)=0{\text{ or }}\mathrm {P} (A)=1.}

Por lo tanto, un evento es independiente de sí mismo si y sólo si ocurre casi con seguridad o su complemento ocurre casi con seguridad; este hecho es útil para probar leyes cero-uno . [8]

Expectativa y covarianza

Si y son variables aleatorias estadísticamente independientes, entonces el operador de expectativa tiene la propiedad X {\displaystyle X} Y {\displaystyle Y} E {\displaystyle \operatorname {E} }

E [ X n Y m ] = E [ X n ] E [ Y m ] , {\displaystyle \operatorname {E} [X^{n}Y^{m}]=\operatorname {E} [X^{n}]\operatorname {E} [Y^{m}],} [9] : pág. 10 

y la covarianza es cero, como se deduce de cov [ X , Y ] {\displaystyle \operatorname {cov} [X,Y]}

cov [ X , Y ] = E [ X Y ] E [ X ] E [ Y ] . {\displaystyle \operatorname {cov} [X,Y]=\operatorname {E} [XY]-\operatorname {E} [X]\operatorname {E} [Y].}

Lo inverso no se cumple: si dos variables aleatorias tienen una covarianza de 0, aún así pueden no ser independientes.

De manera similar, para dos procesos estocásticos y : si son independientes, entonces no están correlacionados . [10] : p. 151  { X t } t T {\displaystyle \left\{X_{t}\right\}_{t\in {\mathcal {T}}}} { Y t } t T {\displaystyle \left\{Y_{t}\right\}_{t\in {\mathcal {T}}}}

Función característica

Dos variables aleatorias y son independientes si y sólo si la función característica del vector aleatorio satisface X {\displaystyle X} Y {\displaystyle Y} ( X , Y ) {\displaystyle (X,Y)}

φ ( X , Y ) ( t , s ) = φ X ( t ) φ Y ( s ) . {\displaystyle \varphi _{(X,Y)}(t,s)=\varphi _{X}(t)\cdot \varphi _{Y}(s).}

En particular, la función característica de su suma es el producto de sus funciones características marginales:

φ X + Y ( t ) = φ X ( t ) φ Y ( t ) , {\displaystyle \varphi _{X+Y}(t)=\varphi _{X}(t)\cdot \varphi _{Y}(t),}

aunque la implicación inversa no es cierta. Las variables aleatorias que satisfacen la última condición se denominan subindependientes .

Ejemplos

Tirar dados

El evento de obtener un 6 la primera vez que se lanza un dado y el evento de obtener un 6 la segunda vez son independientes . Por el contrario, el evento de obtener un 6 la primera vez que se lanza un dado y el evento de que la suma de los números vistos en el primer y segundo intento sea 8 no son independientes.

Tarjetas para dibujar

Si se extraen dos cartas de una baraja con reposición, el suceso de sacar una carta roja en el primer intento y el de sacar una carta roja en el segundo intento son independientes . Por el contrario, si se extraen dos cartas sin reposición de una baraja, el suceso de sacar una carta roja en el primer intento y el de sacar una carta roja en el segundo intento no son independientes, porque una baraja a la que se le ha quitado una carta roja tiene proporcionalmente menos cartas rojas.

Independencia mutua y por pares

Eventos independientes por pares, pero no mutuamente independientes
Eventos mutuamente independientes

Considere los dos espacios de probabilidad que se muestran. En ambos casos, y . Los eventos en el primer espacio son independientes por pares porque , y ; pero los tres eventos no son mutuamente independientes. Los eventos en el segundo espacio son independientes por pares y mutuamente independientes. Para ilustrar la diferencia, considere el condicionamiento sobre dos eventos. En el caso de independencia por pares, aunque cualquier evento es independiente de cada uno de los otros dos individualmente, no es independiente de la intersección de los otros dos: P ( A ) = P ( B ) = 1 / 2 {\displaystyle \mathrm {P} (A)=\mathrm {P} (B)=1/2} P ( C ) = 1 / 4 {\displaystyle \mathrm {P} (C)=1/4} P ( A | B ) = P ( A | C ) = 1 / 2 = P ( A ) {\displaystyle \mathrm {P} (A|B)=\mathrm {P} (A|C)=1/2=\mathrm {P} (A)} P ( B | A ) = P ( B | C ) = 1 / 2 = P ( B ) {\displaystyle \mathrm {P} (B|A)=\mathrm {P} (B|C)=1/2=\mathrm {P} (B)} P ( C | A ) = P ( C | B ) = 1 / 4 = P ( C ) {\displaystyle \mathrm {P} (C|A)=\mathrm {P} (C|B)=1/4=\mathrm {P} (C)}

P ( A | B C ) = 4 40 4 40 + 1 40 = 4 5 P ( A ) {\displaystyle \mathrm {P} (A|BC)={\frac {\frac {4}{40}}{{\frac {4}{40}}+{\frac {1}{40}}}}={\tfrac {4}{5}}\neq \mathrm {P} (A)}
P ( B | A C ) = 4 40 4 40 + 1 40 = 4 5 P ( B ) {\displaystyle \mathrm {P} (B|AC)={\frac {\frac {4}{40}}{{\frac {4}{40}}+{\frac {1}{40}}}}={\tfrac {4}{5}}\neq \mathrm {P} (B)}
P ( C | A B ) = 4 40 4 40 + 6 40 = 2 5 P ( C ) {\displaystyle \mathrm {P} (C|AB)={\frac {\frac {4}{40}}{{\frac {4}{40}}+{\frac {6}{40}}}}={\tfrac {2}{5}}\neq \mathrm {P} (C)}

En el caso mutuamente independiente, sin embargo,

P ( A | B C ) = 1 16 1 16 + 1 16 = 1 2 = P ( A ) {\displaystyle \mathrm {P} (A|BC)={\frac {\frac {1}{16}}{{\frac {1}{16}}+{\frac {1}{16}}}}={\tfrac {1}{2}}=\mathrm {P} (A)}
P ( B | A C ) = 1 16 1 16 + 1 16 = 1 2 = P ( B ) {\displaystyle \mathrm {P} (B|AC)={\frac {\frac {1}{16}}{{\frac {1}{16}}+{\frac {1}{16}}}}={\tfrac {1}{2}}=\mathrm {P} (B)}
P ( C | A B ) = 1 16 1 16 + 3 16 = 1 4 = P ( C ) {\displaystyle \mathrm {P} (C|AB)={\frac {\frac {1}{16}}{{\frac {1}{16}}+{\frac {3}{16}}}}={\tfrac {1}{4}}=\mathrm {P} (C)}

Triple independencia pero no independencia por pares

Es posible crear un ejemplo de tres eventos en el que

P ( A B C ) = P ( A ) P ( B ) P ( C ) , {\displaystyle \mathrm {P} (A\cap B\cap C)=\mathrm {P} (A)\mathrm {P} (B)\mathrm {P} (C),}

y, sin embargo, no hay dos de los tres eventos que sean independientes entre sí (y, por lo tanto, el conjunto de eventos no es mutuamente independiente). [11] Este ejemplo muestra que la independencia mutua implica requisitos sobre los productos de las probabilidades de todas las combinaciones de eventos, no solo de los eventos individuales como en este ejemplo.

Independencia condicional

Para eventos

Los eventos y son condicionalmente independientes dado un evento cuando A {\displaystyle A} B {\displaystyle B} C {\displaystyle C}

P ( A B C ) = P ( A C ) P ( B C ) {\displaystyle \mathrm {P} (A\cap B\mid C)=\mathrm {P} (A\mid C)\cdot \mathrm {P} (B\mid C)} .

Para variables aleatorias

Intuitivamente, dos variables aleatorias y son condicionalmente independientes si, una vez conocido, el valor de no agrega ninguna información adicional sobre . Por ejemplo, dos mediciones y de la misma cantidad subyacente no son independientes, pero son condicionalmente independientes (a menos que los errores en las dos mediciones estén conectados de alguna manera). X {\displaystyle X} Y {\displaystyle Y} Z {\displaystyle Z} Z {\displaystyle Z} Y {\displaystyle Y} X {\displaystyle X} X {\displaystyle X} Y {\displaystyle Y} Z {\displaystyle Z} Z {\displaystyle Z}

La definición formal de independencia condicional se basa en la idea de distribuciones condicionales . Si , y son variables aleatorias discretas , entonces definimos y como condicionalmente independientes dado si X {\displaystyle X} Y {\displaystyle Y} Z {\displaystyle Z} X {\displaystyle X} Y {\displaystyle Y} Z {\displaystyle Z}

P ( X x , Y y | Z = z ) = P ( X x | Z = z ) P ( Y y | Z = z ) {\displaystyle \mathrm {P} (X\leq x,Y\leq y\;|\;Z=z)=\mathrm {P} (X\leq x\;|\;Z=z)\cdot \mathrm {P} (Y\leq y\;|\;Z=z)}

para todos , y tales que . Por otra parte, si las variables aleatorias son continuas y tienen una función de densidad de probabilidad conjunta , entonces y son condicionalmente independientes dado si x {\displaystyle x} y {\displaystyle y} z {\displaystyle z} P ( Z = z ) > 0 {\displaystyle \mathrm {P} (Z=z)>0} f X Y Z ( x , y , z ) {\displaystyle f_{XYZ}(x,y,z)} X {\displaystyle X} Y {\displaystyle Y} Z {\displaystyle Z}

f X Y | Z ( x , y | z ) = f X | Z ( x | z ) f Y | Z ( y | z ) {\displaystyle f_{XY|Z}(x,y|z)=f_{X|Z}(x|z)\cdot f_{Y|Z}(y|z)}

para todos los números reales , y tales que . x {\displaystyle x} y {\displaystyle y} z {\displaystyle z} f Z ( z ) > 0 {\displaystyle f_{Z}(z)>0}

Si discretos y son condicionalmente independientes dado , entonces X {\displaystyle X} Y {\displaystyle Y} Z {\displaystyle Z}

P ( X = x | Y = y , Z = z ) = P ( X = x | Z = z ) {\displaystyle \mathrm {P} (X=x|Y=y,Z=z)=\mathrm {P} (X=x|Z=z)}

para cualquier , y con . Es decir, la distribución condicional para y dada es la misma que la dada sola. Una ecuación similar se cumple para las funciones de densidad de probabilidad condicional en el caso continuo. x {\displaystyle x} y {\displaystyle y} z {\displaystyle z} P ( Z = z ) > 0 {\displaystyle \mathrm {P} (Z=z)>0} X {\displaystyle X} Y {\displaystyle Y} Z {\displaystyle Z} Z {\displaystyle Z}

La independencia puede verse como un tipo especial de independencia condicional, ya que la probabilidad puede verse como un tipo de probabilidad condicional dado que no hay eventos.

Historia

Antes de 1933, la independencia, en teoría de la probabilidad, se definía de manera verbal. Por ejemplo, de Moivre dio la siguiente definición: “Dos eventos son independientes cuando no tienen conexión entre sí y la ocurrencia de uno no favorece ni obstaculiza la ocurrencia del otro”. [12] Si hay n eventos independientes, la probabilidad de que todos ellos ocurran se calculaba como el producto de las probabilidades de estos n eventos. Aparentemente, existía la convicción de que esta fórmula era una consecuencia de la definición anterior (a veces se la llamaba Teorema de la Multiplicación). Por supuesto, una prueba de su afirmación no puede funcionar sin suposiciones tácitas más formales.

La definición de independencia, dada en este artículo, se convirtió en la definición estándar (ahora utilizada en todos los libros) después de que apareció en 1933 como parte de la axiomatización de probabilidad de Kolmogorov. [13] Kolmogorov se la atribuyó a SN Bernstein y citó una publicación que había aparecido en ruso en 1927. [14]

Desafortunadamente, tanto Bernstein como Kolmogorov no conocían el trabajo de Georg Bohlmann . Bohlmann había dado la misma definición para dos eventos en 1901 [15] y para n eventos en 1908 [16] . En el último artículo, estudió su noción en detalle. Por ejemplo, dio el primer ejemplo que muestra que la independencia por pares no implica independencia mutua. Incluso hoy, rara vez se cita a Bohlmann. Se puede encontrar más sobre su trabajo en On the contributes of Georg Bohlmann to probability theory de de:Ulrich Krengel. [17]

Véase también

Referencias

  1. ^ Russell, Stuart; Norvig, Peter (2002). Inteligencia artificial: un enfoque moderno . Prentice Hall . pág. 478. ISBN. 0-13-790395-2.
  2. ^ ab Florescu, Ionut (2014). Probabilidad y Procesos Estocásticos . Wiley. ISBN 978-0-470-62455-5.
  3. ^ abcd Gallager, Robert G. (2013). Teoría de procesos estocásticos para aplicaciones . Cambridge University Press. ISBN 978-1-107-03975-9.
  4. ^ ab Feller, W (1971). "Independencia estocástica". Introducción a la teoría de la probabilidad y sus aplicaciones . Wiley .
  5. ^ Papoulis, Athanasios (1991). Probabilidad, variables aleatorias y procesos estocásticos . MCGraw Hill. ISBN 0-07-048477-5.
  6. ^ Hwei, Piao (1997). Teoría y problemas de probabilidad, variables aleatorias y procesos aleatorios . McGraw-Hill. ISBN 0-07-030644-3.
  7. ^ Amos Lapidoth (8 de febrero de 2017). Una base para la comunicación digital. Cambridge University Press. ISBN 978-1-107-17732-1.
  8. ^ Durrett, Richard (1996). Probabilidad: teoría y ejemplos (Segunda ed.).página 62
  9. ^ E Jakeman. MODELADO DE FLUCTUACIONES EN ONDAS DISPERSAS . ISBN 978-0-7503-1005-5.
  10. ^ Park, Kun Il (2018). Fundamentos de probabilidad y procesos estocásticos con aplicaciones a las comunicaciones . Springer. ISBN 978-3-319-68074-3.
  11. ^ George, Glyn, "Prueba de independencia de tres eventos", Mathematical Gazette 88, noviembre de 2004, 568. PDF
  12. ^ Citado según: Introducción a la probabilidad de Grinstead y Snell. En: The CHANCE Project. Versión del 4 de julio de 2006.
  13. ^ Kolmogorov, Andrey (1933). Grundbegriffe der Wahrscheinlichkeitsrechnung (en alemán). Berlín: Julius Springer Traducción: Kolmogorov, Andrey (1956). Traducción:Fundamentos de la teoría de la probabilidad (2ª ed.). Nueva York: Chelsea. ISBN 978-0-8284-0023-7.
  14. ^ SN Bernstein , Probability Theory (en ruso), Moscú, 1927 (4 ediciones, la última en 1946)
  15. ^ Georg Bohlmann : Lebensversicherungsmathematik, Encyklop¨adie der mathematischen Wissenschaften, Bd I, Teil 2, Artikel ID 4b (1901), 852–917
  16. ^ Georg Bohlmann : Die Grundbegriffe der Wahrscheinlichkeitsrechnung in ihrer Anwendung auf die Lebensversichrung, Atti del IV. Congr. Int. dei Matem. Rom, Bd. III (1908), 244–278.
  17. ^ de:Ulrich Krengel: Sobre las contribuciones de Georg Bohlmann a la teoría de la probabilidad (PDF; 6,4 MB), Revista electrónica de historia de la probabilidad y la estadística, 2011.
  • Medios relacionados con Independencia (teoría de la probabilidad) en Wikimedia Commons
Retrieved from "https://en.wikipedia.org/w/index.php?title=Independence_(probability_theory)&oldid=1241496878"