Distribución de probabilidad condicional

Teoría de la probabilidad y concepto de estadística

En teoría de probabilidad y estadística , la distribución de probabilidad condicional es una distribución de probabilidad que describe la probabilidad de un resultado dada la ocurrencia de un evento particular. Dadas dos variables aleatorias distribuidas conjuntamente y , la distribución de probabilidad condicional de dado es la distribución de probabilidad de cuando se sabe que es un valor particular; en algunos casos, las probabilidades condicionales pueden expresarse como funciones que contienen el valor no especificado de como parámetro. Cuando tanto y son variables categóricas , se utiliza típicamente una tabla de probabilidad condicional para representar la probabilidad condicional. La distribución condicional contrasta con la distribución marginal de una variable aleatoria, que es su distribución sin referencia al valor de la otra variable. incógnita {\estilo de visualización X} Y {\estilo de visualización Y} Y {\estilo de visualización Y} incógnita {\estilo de visualización X} Y {\estilo de visualización Y} incógnita {\estilo de visualización X} incógnita {\estilo de visualización x} incógnita {\estilo de visualización X} incógnita {\estilo de visualización X} Y {\estilo de visualización Y}

Si la distribución condicional de dado es una distribución continua , entonces su función de densidad de probabilidad se conoce como función de densidad condicional . [1] Las propiedades de una distribución condicional, como los momentos , a menudo se denominan con nombres correspondientes, como media condicional y varianza condicional . Y {\estilo de visualización Y} incógnita {\estilo de visualización X}

De manera más general, se puede hacer referencia a la distribución condicional de un subconjunto de un conjunto de más de dos variables; esta distribución condicional depende de los valores de todas las variables restantes, y si se incluye más de una variable en el subconjunto, entonces esta distribución condicional es la distribución condicional conjunta de las variables incluidas.

Distribuciones discretas condicionales

Para variables aleatorias discretas , la función de masa de probabilidad condicional dada se puede escribir según su definición como: Y {\estilo de visualización Y} incógnita = incógnita {\estilo de visualización X=x}

pag Y | incógnita ( y incógnita ) PAG ( Y = y incógnita = incógnita ) = PAG ( { incógnita = incógnita } { Y = y } ) PAG ( incógnita = incógnita ) {\displaystyle p_{Y|X}(y\mid x)\triangleq P(Y=y\mid X=x)={\frac {P(\{X=x\}\cap \{Y=y\ })}{P(X=x)}}\qquad }

Debido a la ocurrencia de en el denominador, esto se define solo para valores distintos de cero (por lo tanto, estrictamente positivo). PAG ( incógnita = incógnita ) {\displaystyle P(X=x)} PAG ( incógnita = incógnita ) . {\displaystyle P(X=x).}

La relación con la distribución de probabilidad dada es: incógnita {\estilo de visualización X} Y {\estilo de visualización Y}

PAG ( Y = y incógnita = incógnita ) PAG ( incógnita = incógnita ) = PAG ( { incógnita = incógnita } { Y = y } ) = PAG ( incógnita = incógnita Y = y ) PAG ( Y = y ) . {\displaystyle P(Y=y\mid X=x)P(X=x)=P(\{X=x\}\cap \{Y=y\})=P(X=x\mid Y=y)P(Y=y).}

Ejemplo

Considere el lanzamiento de un dado justo y suponga que el número es par (es decir, 2, 4 o 6) y en los demás casos. Además, suponga que el número es primo (es decir, 2, 3 o 5) y en los demás casos. incógnita = 1 {\displaystyle X=1} incógnita = 0 {\displaystyle X=0} Y = 1 {\displaystyle Y=1} Y = 0 {\displaystyle Y=0}

D123456
incógnita010101
Y011010

Entonces, la probabilidad incondicional es 3/6 = 1/2 (ya que hay seis tiradas posibles de los dados, de las cuales tres son pares), mientras que la probabilidad condicional es 1/3 (ya que hay tres tiradas posibles de números primos —2, 3 y 5— de las cuales una es par). incógnita = 1 {\displaystyle X=1} incógnita = 1 {\displaystyle X=1} Y = 1 {\displaystyle Y=1}

Distribuciones continuas condicionales

De manera similar, para las variables aleatorias continuas , la función de densidad de probabilidad condicional de dada la ocurrencia del valor de se puede escribir como [2] : p. 99  Y {\estilo de visualización Y} incógnita {\estilo de visualización x} incógnita {\estilo de visualización X}

F Y incógnita ( y incógnita ) = F incógnita , Y ( incógnita , y ) F incógnita ( incógnita ) {\displaystyle f_{Y\mid X}(y\mid x)={\frac {f_{X,Y}(x,y)}{f_{X}(x)}}\qquad }

donde da la densidad conjunta de y , mientras que da la densidad marginal para . También en este caso es necesario que . F incógnita , Y ( incógnita , y ) Estilo de visualización f_{X,Y}(x,y)} incógnita {\estilo de visualización X} Y {\estilo de visualización Y} F incógnita ( incógnita ) Estilo de visualización f_{X}(x)} incógnita {\estilo de visualización X} F incógnita ( incógnita ) > 0 Estilo de visualización f_{X}(x)>0}

La relación con la distribución de probabilidad dada viene dada por: incógnita {\estilo de visualización X} Y {\estilo de visualización Y}

F Y incógnita ( y incógnita ) F incógnita ( incógnita ) = F incógnita , Y ( incógnita , y ) = F incógnita | Y ( incógnita y ) F Y ( y ) . {\displaystyle f_{Y\mid X}(y\mid x)f_{X}(x)=f_{X,Y}(x,y)=f_{X|Y}(x\mid y)f_{Y}(y).}

El concepto de distribución condicional de una variable aleatoria continua no es tan intuitivo como podría parecer: la paradoja de Borel muestra que las funciones de densidad de probabilidad condicional no necesitan ser invariantes bajo transformaciones de coordenadas.

Ejemplo

Densidad articular normal bivariada

El gráfico muestra una densidad normal conjunta bivariada para variables aleatorias y . Para ver la distribución de condicional en , primero se puede visualizar la línea en el plano y luego visualizar el plano que contiene esa línea y es perpendicular al plano. La intersección de ese plano con la densidad normal conjunta, una vez reescalada para dar el área unitaria bajo la intersección, es la densidad condicional relevante de . incógnita {\estilo de visualización X} Y {\estilo de visualización Y} Y {\estilo de visualización Y} incógnita = 70 {\displaystyle X=70} incógnita = 70 {\displaystyle X=70} incógnita , Y {\estilo de visualización X, Y} incógnita , Y {\estilo de visualización X, Y} Y {\estilo de visualización Y}

Y incógnita = 70     norte ( micras Y + σ Y σ incógnita ρ ( 70 micras incógnita ) , ( 1 ρ 2 ) σ Y 2 ) . {\displaystyle Y\mid X=70\ \sim \ {\mathcal {N}}\left(\mu _{Y}+{\frac {\sigma _{Y}}{\sigma _{X}}}\rho (70-\mu _{X}),\,(1-\rho ^{2})\sigma _{Y}^{2}\right).}

Relación con la independencia

Las variables aleatorias , son independientes si y solo si la distribución condicional de dada es, para todas las posibles realizaciones de , igual a la distribución incondicional de . Para las variables aleatorias discretas esto significa para todas las posibles y con . Para las variables aleatorias continuas y , que tienen una función de densidad conjunta , significa para todas las posibles y con . X {\displaystyle X} Y {\displaystyle Y} Y {\displaystyle Y} X {\displaystyle X} X {\displaystyle X} Y {\displaystyle Y} P ( Y = y | X = x ) = P ( Y = y ) {\displaystyle P(Y=y|X=x)=P(Y=y)} y {\displaystyle y} x {\displaystyle x} P ( X = x ) > 0 {\displaystyle P(X=x)>0} X {\displaystyle X} Y {\displaystyle Y} f Y ( y | X = x ) = f Y ( y ) {\displaystyle f_{Y}(y|X=x)=f_{Y}(y)} y {\displaystyle y} x {\displaystyle x} f X ( x ) > 0 {\displaystyle f_{X}(x)>0}

Propiedades

Vista como una función de para dado , es una función de masa de probabilidad y, por lo tanto, la suma total (o integral si es una densidad de probabilidad condicional) es 1. Vista como una función de para dado , es una función de verosimilitud , por lo que la suma (o integral) total no necesita ser 1. y {\displaystyle y} x {\displaystyle x} P ( Y = y | X = x ) {\displaystyle P(Y=y|X=x)} y {\displaystyle y} x {\displaystyle x} y {\displaystyle y} x {\displaystyle x}

Además, un valor marginal de una distribución conjunta se puede expresar como la esperanza de la distribución condicional correspondiente. Por ejemplo, . p X ( x ) = E Y [ p X | Y ( x   |   Y ) ] {\displaystyle p_{X}(x)=E_{Y}[p_{X|Y}(x\ |\ Y)]}

Formulación teórica de la medida

Sea un espacio de probabilidad, un -cuerpo en . Dado , el teorema de Radon-Nikodym implica que existe [3] una variable aleatoria -medible , llamada probabilidad condicional , tal que para cada , y dicha variable aleatoria está definida de forma única hasta conjuntos de probabilidad cero. Una probabilidad condicional se llama regular si es una medida de probabilidad en para todos los ae ( Ω , F , P ) {\displaystyle (\Omega ,{\mathcal {F}},P)} G F {\displaystyle {\mathcal {G}}\subseteq {\mathcal {F}}} σ {\displaystyle \sigma } F {\displaystyle {\mathcal {F}}} A F {\displaystyle A\in {\mathcal {F}}} G {\displaystyle {\mathcal {G}}} P ( A G ) : Ω R {\displaystyle P(A\mid {\mathcal {G}}):\Omega \to \mathbb {R} } G P ( A G ) ( ω ) d P ( ω ) = P ( A G ) {\displaystyle \int _{G}P(A\mid {\mathcal {G}})(\omega )dP(\omega )=P(A\cap G)} G G {\displaystyle G\in {\mathcal {G}}} P ( G ) ( ω ) {\displaystyle \operatorname {P} (\cdot \mid {\mathcal {G}})(\omega )} ( Ω , F ) {\displaystyle (\Omega ,{\mathcal {F}})} ω Ω {\displaystyle \omega \in \Omega }

Casos especiales:

  • Para el álgebra sigma trivial , la probabilidad condicional es la función constante G = { , Ω } {\displaystyle {\mathcal {G}}=\{\emptyset ,\Omega \}} P ( A { , Ω } ) = P ( A ) . {\displaystyle \operatorname {P} \!\left(A\mid \{\emptyset ,\Omega \}\right)=\operatorname {P} (A).}
  • Si , entonces , la función indicadora (definida a continuación). A G {\displaystyle A\in {\mathcal {G}}} P ( A G ) = 1 A {\displaystyle \operatorname {P} (A\mid {\mathcal {G}})=1_{A}}

Sea una variable aleatoria con valor . Para cada , defina Para cualquier , la función se denomina distribución de probabilidad condicional de dado . Si es una medida de probabilidad de , entonces se denomina regular . X : Ω E {\displaystyle X:\Omega \to E} ( E , E ) {\displaystyle (E,{\mathcal {E}})} B E {\displaystyle B\in {\mathcal {E}}} μ X | G ( B | G ) = P ( X 1 ( B ) | G ) . {\displaystyle \mu _{X\,|\,{\mathcal {G}}}(B\,|\,{\mathcal {G}})=\mathrm {P} (X^{-1}(B)\,|\,{\mathcal {G}}).} ω Ω {\displaystyle \omega \in \Omega } μ X | G ( | G ) ( ω ) : E R {\displaystyle \mu _{X\,|{\mathcal {G}}}(\cdot \,|{\mathcal {G}})(\omega ):{\mathcal {E}}\to \mathbb {R} } X {\displaystyle X} G {\displaystyle {\mathcal {G}}} ( E , E ) {\displaystyle (E,{\mathcal {E}})}

Para una variable aleatoria de valor real (con respecto al campo de Borel en ), toda distribución de probabilidad condicional es regular. [4] En este caso, casi con seguridad. σ {\displaystyle \sigma } R 1 {\displaystyle {\mathcal {R}}^{1}} R {\displaystyle \mathbb {R} } E [ X G ] = x μ X G ( d x , ) {\displaystyle E[X\mid {\mathcal {G}}]=\int _{-\infty }^{\infty }x\,\mu _{X\mid {\mathcal {G}}}(dx,\cdot )}

Relación con la expectativa condicional

Para cualquier evento , defina la función indicadora : A F {\displaystyle A\in {\mathcal {F}}}

1 A ( ω ) = { 1 if  ω A , 0 if  ω A , {\displaystyle \mathbf {1} _{A}(\omega )={\begin{cases}1\;&{\text{if }}\omega \in A,\\0\;&{\text{if }}\omega \notin A,\end{cases}}}

que es una variable aleatoria. Nótese que la expectativa de esta variable aleatoria es igual a la probabilidad de A en sí:

E ( 1 A ) = P ( A ) . {\displaystyle \operatorname {E} (\mathbf {1} _{A})=\operatorname {P} (A).\;}

Dado un campo , la probabilidad condicional es una versión de la expectativa condicional de la función indicadora para : σ {\displaystyle \sigma } G F {\displaystyle {\mathcal {G}}\subseteq {\mathcal {F}}} P ( A G ) {\displaystyle \operatorname {P} (A\mid {\mathcal {G}})} A {\displaystyle A}

P ( A G ) = E ( 1 A G ) {\displaystyle \operatorname {P} (A\mid {\mathcal {G}})=\operatorname {E} (\mathbf {1} _{A}\mid {\mathcal {G}})\;}

La expectativa de una variable aleatoria con respecto a una probabilidad condicional regular es igual a su expectativa condicional.

Interpretación del condicionamiento en un campo sigma

Consideremos el espacio de probabilidad y un campo subsigma . El campo subsigma puede interpretarse libremente como que contiene un subconjunto de la información en . Por ejemplo, podríamos pensar en como la probabilidad del evento dada la información en . ( Ω , F , P ) {\displaystyle (\Omega ,{\mathcal {F}},\mathbb {P} )} A F {\displaystyle {\mathcal {A}}\subset {\mathcal {F}}} A {\displaystyle {\mathcal {A}}} F {\displaystyle {\mathcal {F}}} P ( B | A ) {\displaystyle \mathbb {P} (B|{\mathcal {A}})} B {\displaystyle B} A {\displaystyle {\mathcal {A}}}

Recuerde también que un evento es independiente de un campo subsigma si para todo . Es incorrecto concluir en general que la información en no nos dice nada sobre la probabilidad de que ocurra el evento. Esto se puede demostrar con un contraejemplo: B {\displaystyle B} A {\displaystyle {\mathcal {A}}} P ( B | A ) = P ( B ) {\displaystyle \mathbb {P} (B|A)=\mathbb {P} (B)} A A {\displaystyle A\in {\mathcal {A}}} A {\displaystyle {\mathcal {A}}} B {\displaystyle B}

Consideremos un espacio de probabilidad en el intervalo unitario, . Sea el cuerpo sigma de todos los conjuntos contables y conjuntos cuyo complemento es contable. Por lo tanto, cada conjunto en tiene medida o y, por lo tanto, es independiente de cada evento en . Sin embargo, observe que también contiene todos los eventos singulares en (aquellos conjuntos que contienen solo un único ). Por lo tanto, ¡saber cuál de los eventos en ocurrió es equivalente a saber exactamente cuál ocurrió! Por lo tanto, en un sentido, no contiene información sobre (es independiente de él), y en otro sentido contiene toda la información en . [5] Ω = [ 0 , 1 ] {\displaystyle \Omega =[0,1]} G {\displaystyle {\mathcal {G}}} G {\displaystyle {\mathcal {G}}} 0 {\displaystyle 0} 1 {\displaystyle 1} F {\displaystyle {\mathcal {F}}} G {\displaystyle {\mathcal {G}}} F {\displaystyle {\mathcal {F}}} ω Ω {\displaystyle \omega \in \Omega } G {\displaystyle {\mathcal {G}}} ω Ω {\displaystyle \omega \in \Omega } G {\displaystyle {\mathcal {G}}} F {\displaystyle {\mathcal {F}}} F {\displaystyle {\mathcal {F}}}

Véase también

Referencias

Citas

  1. ^ Ross, Sheldon M. (1993). Introducción a los modelos de probabilidad (quinta edición). San Diego: Academic Press. pp. 88–91. ISBN 0-12-598455-3.
  2. ^ Park, Kun Il (2018). Fundamentos de probabilidad y procesos estocásticos con aplicaciones a las comunicaciones . Springer. ISBN 978-3-319-68074-3.
  3. ^ Billingsley (1995), pág. 430
  4. ^ Billingsley (1995), pág. 439
  5. ^ Billingsley, Patrick (28 de febrero de 2012). Probabilidad y medida. Hoboken, Nueva Jersey: Wiley. ISBN 978-1-118-12237-2.

Fuentes

Retrieved from "https://en.wikipedia.org/w/index.php?title=Conditional_probability_distribution&oldid=1250233210"