Falta de correlación (teoría de la probabilidad)

En teoría de probabilidad y estadística , se dice que dos variables aleatorias de valor real , , , no están correlacionadas si su covarianza , , es cero. Si dos variables no están correlacionadas, no existe una relación lineal entre ellas. incógnita {\estilo de visualización X} Y {\estilo de visualización Y} cubierta [ incógnita , Y ] = mi [ incógnita Y ] mi [ incógnita ] mi [ Y ] {\displaystyle \operatorname {cov} [X,Y]=\operatorname {E} [XY]-\operatorname {E} [X]\operatorname {E} [Y]}

Las variables aleatorias no correlacionadas tienen un coeficiente de correlación de Pearson , cuando existe, de cero, excepto en el caso trivial en que cualquiera de las variables tiene varianza cero (es una constante). En este caso, la correlación no está definida.

En general, la falta de correlación no es lo mismo que la ortogonalidad , excepto en el caso especial en el que al menos una de las dos variables aleatorias tiene un valor esperado de 0. En este caso, la covarianza es la expectativa del producto, y y no están correlacionados si y solo si . incógnita {\estilo de visualización X} Y {\estilo de visualización Y} mi [ incógnita Y ] = 0 {\displaystyle \nombre del operador {E} [XY]=0}

Si y son independientes , con segundos momentos finitos , entonces no están correlacionadas. Sin embargo, no todas las variables no correlacionadas son independientes. [1] : p. 155  incógnita {\estilo de visualización X} Y {\estilo de visualización Y}

Definición

Definición de dos variables aleatorias reales

Dos variables aleatorias se denominan no correlacionadas si su covarianza es cero. [1] : p. 153  [2] : p. 121  Formalmente: incógnita , Y {\estilo de visualización X, Y} Cov [ incógnita , Y ] = mi [ ( incógnita mi [ incógnita ] ) ( Y mi [ Y ] ) ] {\displaystyle \operatorname {Cov} [X,Y]=\operatorname {E} [(X-\operatorname {E} [X])(Y-\operatorname {E} [Y])]}

incógnita , Y  no correlacionado mi [ incógnita Y ] = mi [ incógnita ] mi [ Y ] {\displaystyle X,Y{\text{ no correlacionado}}\quad \iff \quad \operatorname {E} [XY]=\operatorname {E} [X]\cdot \operatorname {E} [Y]}

Definición de dos variables aleatorias complejas

Dos variables aleatorias complejas se denominan no correlacionadas si su covarianza y su pseudocovarianza son cero, es decir O , Yo {\estilo de visualización Z,W} K O Yo = mi [ ( O mi [ O ] ) ( Yo mi [ Yo ] ) ¯ ] {\displaystyle \operatorname {K} _{ZW}=\operatorname {E} [(Z-\operatorname {E} [Z]){\overline {(W-\operatorname {E} [W])}}] } Yo O Yo = mi [ ( O mi [ O ] ) ( Yo mi [ Yo ] ) ] {\displaystyle \operatorname {J} _{ZW}=\operatorname {E} [(Z-\operatorname {E} [Z])(W-\operatorname {E} [W])]}

O , Yo  no correlacionado mi [ O Yo ¯ ] = mi [ O ] mi [ Yo ¯ ]  y  mi [ O Yo ] = mi [ O ] mi [ Yo ] {\displaystyle Z,W{\text{ no correlacionado}}\quad \iff \quad \operatorname {E} [Z{\overline {W}}]=\operatorname {E} [Z]\cdot \operatorname {E} [{\overline {W}}]{\text{ y }}\operatorname {E} [ZW]=\operatorname {E} [Z]\cdot \operatorname {E} [W]}

Definición para más de dos variables aleatorias

Un conjunto de dos o más variables aleatorias se denomina no correlacionado si cada par de ellas no lo está. Esto es equivalente al requisito de que los elementos no diagonales de la matriz de autocovarianza del vector aleatorio sean todos cero. La matriz de autocovarianza se define como: incógnita 1 , , incógnita norte {\displaystyle X_{1},\ldots ,X_{n}} K incógnita incógnita {\displaystyle \operatorname {K} _{\mathbf {X} \mathbf {X} }} incógnita = ( incógnita 1 , , incógnita norte ) yo {\displaystyle \mathbf {X} =(X_{1},\ldots ,X_{n})^{\mathrm {T} }}

K incógnita incógnita = cubierta [ incógnita , incógnita ] = mi [ ( incógnita mi [ incógnita ] ) ( incógnita mi [ incógnita ] ) yo ] = mi [ incógnita incógnita yo ] mi [ incógnita ] mi [ incógnita ] yo {\displaystyle \operatorname {K} _{\mathbf {X} \mathbf {X} }=\operatorname {cov} [\mathbf {X} ,\mathbf {X} ]=\operatorname {E} [(\mathbf {X} -\operatorname {E} [\mathbf {X} ])(\mathbf {X} -\operatorname {E} [\mathbf {X} ])^{\rm {T}}]=\operatorname {E} [\mathbf {X} \mathbf {X} ^{T}]-\operatorname {E} [\mathbf {X} ]\operatorname {E} [\mathbf {X} ]^{T}}

Ejemplos de dependencia sin correlación

Ejemplo 1

  • Sea una variable aleatoria que toma el valor 0 con probabilidad 1/2, y toma el valor 1 con probabilidad 1/2. X {\displaystyle X}
  • Sea una variable aleatoria, independiente de , que toma el valor −1 con probabilidad 1/2, y toma el valor 1 con probabilidad 1/2. Y {\displaystyle Y} X {\displaystyle X}
  • Sea una variable aleatoria construida como . U {\displaystyle U} U = X Y {\displaystyle U=XY}

La afirmación es que y tienen covarianza cero (y por lo tanto no están correlacionados), pero no son independientes. U {\displaystyle U} X {\displaystyle X}

Prueba:

Teniendo en cuenta que

E [ U ] = E [ X Y ] = E [ X ] E [ Y ] = E [ X ] 0 = 0 , {\displaystyle \operatorname {E} [U]=\operatorname {E} [XY]=\operatorname {E} [X]\operatorname {E} [Y]=\operatorname {E} [X]\cdot 0=0,}

donde la segunda igualdad se cumple porque y son independientes, se obtiene X {\displaystyle X} Y {\displaystyle Y}

cov [ U , X ] = E [ ( U E [ U ] ) ( X E [ X ] ) ] = E [ U ( X 1 2 ) ] = E [ X 2 Y 1 2 X Y ] = E [ ( X 2 1 2 X ) Y ] = E [ ( X 2 1 2 X ) ] E [ Y ] = 0 {\displaystyle {\begin{aligned}\operatorname {cov} [U,X]&=\operatorname {E} [(U-\operatorname {E} [U])(X-\operatorname {E} [X])]=\operatorname {E} [U(X-{\tfrac {1}{2}})]\\&=\operatorname {E} [X^{2}Y-{\tfrac {1}{2}}XY]=\operatorname {E} [(X^{2}-{\tfrac {1}{2}}X)Y]=\operatorname {E} [(X^{2}-{\tfrac {1}{2}}X)]\operatorname {E} [Y]=0\end{aligned}}}

Por lo tanto, y no están correlacionados. U {\displaystyle U} X {\displaystyle X}

La independencia de y significa que para todos y , . Esto no es cierto, en particular, para y . U {\displaystyle U} X {\displaystyle X} a {\displaystyle a} b {\displaystyle b} Pr ( U = a X = b ) = Pr ( U = a ) {\displaystyle \Pr(U=a\mid X=b)=\Pr(U=a)} a = 1 {\displaystyle a=1} b = 0 {\displaystyle b=0}

  • Pr ( U = 1 X = 0 ) = Pr ( X Y = 1 X = 0 ) = 0 {\displaystyle \Pr(U=1\mid X=0)=\Pr(XY=1\mid X=0)=0}
  • Pr ( U = 1 ) = Pr ( X Y = 1 ) = 1 / 4 {\displaystyle \Pr(U=1)=\Pr(XY=1)=1/4}

Por lo tanto , y no son independientes. Pr ( U = 1 X = 0 ) Pr ( U = 1 ) {\displaystyle \Pr(U=1\mid X=0)\neq \Pr(U=1)} U {\displaystyle U} X {\displaystyle X}

QED

Ejemplo 2

Si es una variable aleatoria continua uniformemente distribuida en y , entonces y no están correlacionados aunque determina y un valor particular de puede ser producido por solo uno o dos valores de  : X {\displaystyle X} [ 1 , 1 ] {\displaystyle [-1,1]} Y = X 2 {\displaystyle Y=X^{2}} X {\displaystyle X} Y {\displaystyle Y} X {\displaystyle X} Y {\displaystyle Y} Y {\displaystyle Y} X {\displaystyle X}

f X ( t ) = 1 2 I [ 1 , 1 ] ; f Y ( t ) = 1 2 t I ] 0 , 1 ] {\displaystyle f_{X}(t)={1 \over 2}I_{[-1,1]};f_{Y}(t)={1 \over {2{\sqrt {t}}}}I_{]0,1]}}

Por otra parte, es 0 en el triángulo definido por aunque no es nulo en este dominio. Por lo tanto, y las variables no son independientes. f X , Y {\displaystyle f_{X,Y}} 0 < X < Y < 1 {\displaystyle 0<X<Y<1} f X × f Y {\displaystyle f_{X}\times f_{Y}} f X , Y ( X , Y ) f X ( X ) × f Y ( Y ) {\displaystyle f_{X,Y}(X,Y)\neq f_{X}(X)\times f_{Y}(Y)}

E [ X ] = 1 1 4 = 0 ; E [ Y ] = 1 3 ( 1 ) 3 3 × 2 = 1 3 {\displaystyle E[X]={{1-1} \over 4}=0;E[Y]={{1^{3}-(-1)^{3}} \over {3\times 2}}={1 \over 3}}

C o v [ X , Y ] = E [ ( X E [ X ] ) ( Y E [ Y ] ) ] = E [ X 3 X 3 ] = 1 4 ( 1 ) 4 4 × 2 = 0 {\displaystyle Cov[X,Y]=E\left[(X-E[X])(Y-E[Y])\right]=E\left[X^{3}-{X \over 3}\right]={{1^{4}-(-1)^{4}} \over {4\times 2}}=0}

Por lo tanto, las variables no están correlacionadas.

Cuando la falta de correlación implica independencia

Existen casos en los que la falta de correlación implica independencia. Uno de estos casos es aquel en el que ambas variables aleatorias tienen dos valores (por lo que cada una puede transformarse linealmente para tener una distribución de Bernoulli ). [3] Además, dos variables aleatorias que se distribuyen normalmente de manera conjunta son independientes si no están correlacionadas, [4] aunque esto no se cumple para las variables cuyas distribuciones marginales son normales y no correlacionadas pero cuya distribución conjunta no es normal conjunta (véase Distribuir normalmente y no correlacionar no implica independencia ).

Generalizaciones

Vectores aleatorios no correlacionados

Dos vectores aleatorios y se denominan no correlacionados si X = ( X 1 , , X m ) T {\displaystyle \mathbf {X} =(X_{1},\ldots ,X_{m})^{T}} Y = ( Y 1 , , Y n ) T {\displaystyle \mathbf {Y} =(Y_{1},\ldots ,Y_{n})^{T}}

E [ X Y T ] = E [ X ] E [ Y ] T {\displaystyle \operatorname {E} [\mathbf {X} \mathbf {Y} ^{T}]=\operatorname {E} [\mathbf {X} ]\operatorname {E} [\mathbf {Y} ]^{T}} .

No están correlacionados si y sólo si su matriz de covarianza cruzada es cero. [5] : p.337  K X Y {\displaystyle \operatorname {K} _{\mathbf {X} \mathbf {Y} }}

Dos vectores aleatorios complejos y se denominan no correlacionados si su matriz de covarianza cruzada y su matriz de pseudo-covarianza cruzada son cero, es decir, si Z {\displaystyle \mathbf {Z} } W {\displaystyle \mathbf {W} }

K Z W = J Z W = 0 {\displaystyle \operatorname {K} _{\mathbf {Z} \mathbf {W} }=\operatorname {J} _{\mathbf {Z} \mathbf {W} }=0}

dónde

K Z W = E [ ( Z E [ Z ] ) ( W E [ W ] ) H ] {\displaystyle \operatorname {K} _{\mathbf {Z} \mathbf {W} }=\operatorname {E} [(\mathbf {Z} -\operatorname {E} [\mathbf {Z} ]){(\mathbf {W} -\operatorname {E} [\mathbf {W} ])}^{\mathrm {H} }]}

y

J Z W = E [ ( Z E [ Z ] ) ( W E [ W ] ) T ] {\displaystyle \operatorname {J} _{\mathbf {Z} \mathbf {W} }=\operatorname {E} [(\mathbf {Z} -\operatorname {E} [\mathbf {Z} ]){(\mathbf {W} -\operatorname {E} [\mathbf {W} ])}^{\mathrm {T} }]} .

Procesos estocásticos no correlacionados

Dos procesos estocásticos y se denominan no correlacionados si su covarianza cruzada es cero para todos los tiempos. [2] : p. 142  Formalmente: { X t } {\displaystyle \left\{X_{t}\right\}} { Y t } {\displaystyle \left\{Y_{t}\right\}} K X Y ( t 1 , t 2 ) = E [ ( X ( t 1 ) μ X ( t 1 ) ) ( Y ( t 2 ) μ Y ( t 2 ) ) ] {\displaystyle \operatorname {K} _{\mathbf {X} \mathbf {Y} }(t_{1},t_{2})=\operatorname {E} \left[\left(X(t_{1})-\mu _{X}(t_{1})\right)\left(Y(t_{2})-\mu _{Y}(t_{2})\right)\right]}

{ X t } , { Y t }  uncorrelated : t 1 , t 2 : K X Y ( t 1 , t 2 ) = 0 {\displaystyle \left\{X_{t}\right\},\left\{Y_{t}\right\}{\text{ uncorrelated}}\quad :\iff \quad \forall t_{1},t_{2}\colon \operatorname {K} _{\mathbf {X} \mathbf {Y} }(t_{1},t_{2})=0} .

Véase también

Referencias

  1. ^ ab Papoulis, Athanasios (1991). Probabilidad, variables aleatorias y procesos estocásticos . MCGraw Hill. ISBN 0-07-048477-5.
  2. ^ ab Kun Il Park, Fundamentos de probabilidad y procesos estocásticos con aplicaciones a las comunicaciones, Springer, 2018, 978-3-319-68074-3
  3. ^ Laboratorios Virtuales en Probabilidad y Estadística: Covarianza y Correlación, ítem 17.
  4. ^ Bain, Lee; Engelhardt, Max (1992). "Capítulo 5.5 Expectativa condicional". Introducción a la probabilidad y la estadística matemática (2.ª ed.). págs. 185-186. ISBN 0534929303.
  5. ^ Gubner, John A. (2006). Probabilidad y procesos aleatorios para ingenieros eléctricos e informáticos . Cambridge University Press. ISBN 978-0-521-86470-1.

Lectura adicional

Retrieved from "https://en.wikipedia.org/w/index.php?title=Uncorrelatedness_(probability_theory)&oldid=1215205356"