Condicionamiento (probabilidad)

Término de teoría de la probabilidad

Las creencias dependen de la información disponible. Esta idea se formaliza en la teoría de la probabilidad mediante el condicionamiento . Las probabilidades condicionales , las expectativas condicionales y las distribuciones de probabilidad condicional se tratan en tres niveles: probabilidades discretas , funciones de densidad de probabilidad y teoría de la medida . El condicionamiento conduce a un resultado no aleatorio si la condición se especifica por completo; de lo contrario, si la condición se deja aleatoria, el resultado del condicionamiento también es aleatorio.

Condicionamiento en el nivel discreto

Ejemplo: Se lanza una moneda al aire 10 veces; la variable aleatoria X es el número de caras en esos 10 lanzamientos, e Y es el número de caras en los 3 primeros lanzamientos. A pesar de que Y surge antes que X, puede suceder que alguien conozca X pero no Y.

Probabilidad condicional

Dado que X = 1, la probabilidad condicional del evento Y = 0 es

P ( Y = 0 | X = 1 ) = P ( Y = 0 , X = 1 ) P ( X = 1 ) = 0.7 {\displaystyle \mathbb {P} (Y=0|X=1)={\frac {\mathbb {P} (Y=0,X=1)}{\mathbb {P} (X=1)}}=0.7}

De manera más general,

P ( Y = 0 | X = x ) = ( 7 x ) ( 10 x ) = 7 ! ( 10 x ) ! ( 7 x ) ! 10 ! x = 0 , 1 , 2 , 3 , 4 , 5 , 6 , 7. P ( Y = 0 | X = x ) = 0 x = 8 , 9 , 10. {\displaystyle {\begin{aligned}\mathbb {P} (Y=0|X=x)&={\frac {\binom {7}{x}}{\binom {10}{x}}}={\frac {7!(10-x)!}{(7-x)!10!}}&&x=0,1,2,3,4,5,6,7.\\[4pt]\mathbb {P} (Y=0|X=x)&=0&&x=8,9,10.\end{aligned}}}

También se puede tratar la probabilidad condicional como una variable aleatoria, una función de la variable aleatoria X , es decir,

P ( Y = 0 | X ) = { ( 7 X ) / ( 10 X ) X 7 , 0 X > 7. {\displaystyle \mathbb {P} (Y=0|X)={\begin{cases}{\binom {7}{X}}/{\binom {10}{X}}&X\leqslant 7,\\0&X>7.\end{cases}}}

La expectativa de esta variable aleatoria es igual a la probabilidad (incondicional),

E ( P ( Y = 0 | X ) ) = x P ( Y = 0 | X = x ) P ( X = x ) = P ( Y = 0 ) , {\displaystyle \mathbb {E} (\mathbb {P} (Y=0|X))=\sum _{x}\mathbb {P} (Y=0|X=x)\mathbb {P} (X=x)=\mathbb {P} (Y=0),}

a saber,

x = 0 7 ( 7 x ) ( 10 x ) 1 2 10 ( 10 x ) = 1 8 , {\displaystyle \sum _{x=0}^{7}{\frac {\binom {7}{x}}{\binom {10}{x}}}\cdot {\frac {1}{2^{10}}}{\binom {10}{x}}={\frac {1}{8}},}

que es un ejemplo de la ley de probabilidad total E ( P ( A | X ) ) = P ( A ) . {\displaystyle \mathbb {E} (\mathbb {P} (A|X))=\mathbb {P} (A).}

Por tanto, puede tratarse como el valor de la variable aleatoria correspondiente a X = 1. P ( Y = 0 | X = 1 ) {\displaystyle \mathbb {P} (Y=0|X=1)} P ( Y = 0 | X ) {\displaystyle \mathbb {P} (Y=0|X)} Por otra parte, está bien definida independientemente de otros posibles valores de X. P ( Y = 0 | X = 1 ) {\displaystyle \mathbb {P} (Y=0|X=1)}

Expectativa condicional

Dado que X = 1, la esperanza condicional de la variable aleatoria Y es De manera más general, E ( Y | X = 1 ) = 3 10 {\displaystyle \mathbb {E} (Y|X=1)={\tfrac {3}{10}}}

E ( Y | X = x ) = 3 10 x , x = 0 , , 10. {\displaystyle \mathbb {E} (Y|X=x)={\frac {3}{10}}x,\qquad x=0,\ldots ,10.}

(En este ejemplo parece ser una función lineal, pero en general no es lineal.) También se puede tratar la expectativa condicional como una variable aleatoria, una función de la variable aleatoria X , es decir,

E ( Y | X ) = 3 10 X . {\displaystyle \mathbb {E} (Y|X)={\frac {3}{10}}X.}

La esperanza de esta variable aleatoria es igual a la esperanza (incondicional) de Y ,

E ( E ( Y | X ) ) = x E ( Y | X = x ) P ( X = x ) = E ( Y ) , {\displaystyle \mathbb {E} (\mathbb {E} (Y|X))=\sum _{x}\mathbb {E} (Y|X=x)\mathbb {P} (X=x)=\mathbb {E} (Y),}

a saber,

x = 0 10 3 10 x 1 2 10 ( 10 x ) = 3 2 , {\displaystyle \sum _{x=0}^{10}{\frac {3}{10}}x\cdot {\frac {1}{2^{10}}}{\binom {10}{x}}={\frac {3}{2}},}

o simplemente

E ( 3 10 X ) = 3 10 E ( X ) = 3 10 5 = 3 2 , {\displaystyle \mathbb {E} \left({\frac {3}{10}}X\right)={\frac {3}{10}}\mathbb {E} (X)={\frac {3}{10}}\cdot 5={\frac {3}{2}},}

que es un ejemplo de la ley de la expectativa total E ( E ( Y | X ) ) = E ( Y ) . {\displaystyle \mathbb {E} (\mathbb {E} (Y|X))=\mathbb {E} (Y).}

La variable aleatoria es el mejor predictor de Y dado X . Es decir, minimiza el error cuadrático medio en la clase de todas las variables aleatorias de la forma f ( X ). Esta clase de variables aleatorias permanece intacta si X se reemplaza, digamos, por 2 X . Por lo tanto, no significa que más bien, En particular, De manera más general, para cada función g que sea uno a uno en el conjunto de todos los valores posibles de X . Los valores de X son irrelevantes; lo que importa es la partición (denotándola α X ) E ( Y | X ) {\displaystyle \mathbb {E} (Y|X)} E ( Y f ( X ) ) 2 {\displaystyle \mathbb {E} (Y-f(X))^{2}} E ( Y | 2 X ) = E ( Y | X ) . {\displaystyle \mathbb {E} (Y|2X)=\mathbb {E} (Y|X).} E ( Y | 2 X ) = 3 10 × 2 X ; {\displaystyle \mathbb {E} (Y|2X)={\tfrac {3}{10}}\times 2X;} E ( Y | 2 X ) = 3 20 × 2 X = 3 10 X . {\displaystyle \mathbb {E} (Y|2X)={\tfrac {3}{20}}\times 2X={\tfrac {3}{10}}X.} E ( Y | 2 X = 2 ) = 3 10 . {\displaystyle \mathbb {E} (Y|2X=2)={\tfrac {3}{10}}.} E ( Y | g ( X ) ) = E ( Y | X ) {\displaystyle \mathbb {E} (Y|g(X))=\mathbb {E} (Y|X)}

Ω = { X = x 1 } { X = x 2 } {\displaystyle \Omega =\{X=x_{1}\}\uplus \{X=x_{2}\}\uplus \dots }

del espacio muestral Ω en conjuntos disjuntos { X = x n }. (Aquí están todos los valores posibles de X .) Dada una partición arbitraria α de Ω, se puede definir la variable aleatoria E ( Y | α ). Aún así, E ( E ( Y | α)) = E ( Y ). x 1 , x 2 , {\displaystyle x_{1},x_{2},\ldots }

La probabilidad condicional puede ser tratada como un caso especial de esperanza condicional. Es decir, P ( A | X ) = E ( Y | X ) si Y es el indicador de A . Por lo tanto, la probabilidad condicional también depende de la partición α X generada por X en lugar de X en sí misma; P ( A | g ( X ) ) = P ( A | X ) = P ( A | α), α = α X = α g ( X ) .

Por otra parte, el condicionamiento a un evento B está bien definido, siempre que sea independientemente de cualquier partición que pueda contener a B como una de varias partes. P ( B ) 0 , {\displaystyle \mathbb {P} (B)\neq 0,}

Distribución condicional

Dado X = x, la distribución condicional de Y es

P ( Y = y | X = x ) = ( 3 y ) ( 7 x y ) ( 10 x ) = ( x y ) ( 10 x 3 y ) ( 10 3 ) {\displaystyle \mathbb {P} (Y=y|X=x)={\frac {{\binom {3}{y}}{\binom {7}{x-y}}}{\binom {10}{x}}}={\frac {{\binom {x}{y}}{\binom {10-x}{3-y}}}{\binom {10}{3}}}}

para 0 ≤ y ≤ min ( 3, x ). Es la distribución hipergeométrica H ( x ; 3, 7 ), o equivalentemente, H ( 3; x , 10- x ). La esperanza correspondiente 0,3 x , obtenida de la fórmula general

n R R + W {\displaystyle n{\frac {R}{R+W}}}

para H ( n ; R , W ), no es nada más que la esperanza condicional E ( Y | X = x ) = 0,3 x .

Si consideramos H ( X ; 3, 7 ) como una distribución aleatoria (un vector aleatorio en el espacio de cuatro dimensiones de todas las medidas en {0,1,2,3}), podemos tomar su esperanza, obteniendo la distribución incondicional de Y , — la distribución binomial Bin ( 3, 0.5 ). Este hecho equivale a la igualdad

x = 0 10 P ( Y = y | X = x ) P ( X = x ) = P ( Y = y ) = 1 2 3 ( 3 y ) {\displaystyle \sum _{x=0}^{10}\mathbb {P} (Y=y|X=x)\mathbb {P} (X=x)=\mathbb {P} (Y=y)={\frac {1}{2^{3}}}{\binom {3}{y}}}

para y = 0,1,2,3; lo cual es una instancia de la ley de probabilidad total .

Condicionamiento a nivel de densidades

Ejemplo . Se elige al azar un punto de la esfera x 2 + y 2 + z 2 = 1 según la distribución uniforme sobre la esfera . [1] Las variables aleatorias X , Y , Z son las coordenadas del punto aleatorio. La densidad conjunta de X , Y , Z no existe (ya que la esfera tiene un volumen cero), pero sí existe la densidad conjunta f X , Y de X , Y .

f X , Y ( x , y ) = { 1 2 π 1 x 2 y 2 if  x 2 + y 2 < 1 , 0 otherwise . {\displaystyle f_{X,Y}(x,y)={\begin{cases}{\frac {1}{2\pi {\sqrt {1-x^{2}-y^{2}}}}}&{\text{if }}x^{2}+y^{2}<1,\\0&{\text{otherwise}}.\end{cases}}}

(La densidad no es constante debido a un ángulo no constante entre la esfera y el plano ). La densidad de X se puede calcular por integración,

f X ( x ) = + f X , Y ( x , y ) d y = 1 x 2 + 1 x 2 d y 2 π 1 x 2 y 2 ; {\displaystyle f_{X}(x)=\int _{-\infty }^{+\infty }f_{X,Y}(x,y)\,\mathrm {d} y=\int _{-{\sqrt {1-x^{2}}}}^{+{\sqrt {1-x^{2}}}}{\frac {\mathrm {d} y}{2\pi {\sqrt {1-x^{2}-y^{2}}}}}\,;}

sorprendentemente, el resultado no depende de x en (−1,1),

f X ( x ) = { 0.5 for  1 < x < 1 , 0 otherwise , {\displaystyle f_{X}(x)={\begin{cases}0.5&{\text{for }}-1<x<1,\\0&{\text{otherwise}},\end{cases}}}

lo que significa que X se distribuye uniformemente en (−1,1). Lo mismo vale para Y y Z (y, de hecho, para aX + bY + cZ siempre que a 2 + b 2 + c 2 = 1).

Ejemplo . A continuación se ofrece una medida diferente para calcular la función de distribución marginal [2] [3]

f X , Y , Z ( x , y , z ) = 3 4 π {\displaystyle f_{X,Y,Z}(x,y,z)={\frac {3}{4\pi }}}

f X ( x ) = 1 y 2 x 2 + 1 y 2 x 2 1 x 2 + 1 x 2 3 d y d z 4 π = 3 1 x 2 / 4 ; {\displaystyle f_{X}(x)=\int _{-{\sqrt {1-y^{2}-x^{2}}}}^{+{\sqrt {1-y^{2}-x^{2}}}}\int _{-{\sqrt {1-x^{2}}}}^{+{\sqrt {1-x^{2}}}}{\frac {3\mathrm {d} y\mathrm {d} z}{4\pi }}=3{\sqrt {1-x^{2}}}/4\,;}

Probabilidad condicional

Cálculo

Dado que X = 0,5, la probabilidad condicional del evento Y ≤ 0,75 es la integral de la densidad condicional,

f Y | X = 0.5 ( y ) = f X , Y ( 0.5 , y ) f X ( 0.5 ) = { 1 π 0.75 y 2 for  0.75 < y < 0.75 , 0 otherwise . {\displaystyle f_{Y|X=0.5}(y)={\frac {f_{X,Y}(0.5,y)}{f_{X}(0.5)}}={\begin{cases}{\frac {1}{\pi {\sqrt {0.75-y^{2}}}}}&{\text{for }}-{\sqrt {0.75}}<y<{\sqrt {0.75}},\\0&{\text{otherwise}}.\end{cases}}}
P ( Y 0.75 | X = 0.5 ) = 0.75 f Y | X = 0.5 ( y ) d y = 0.75 0.75 d y π 0.75 y 2 = 1 2 + 1 π arcsin 0.75 = 5 6 . {\displaystyle \mathbb {P} (Y\leq 0.75|X=0.5)=\int _{-\infty }^{0.75}f_{Y|X=0.5}(y)\,\mathrm {d} y=\int _{-{\sqrt {0.75}}}^{0.75}{\frac {\mathrm {d} y}{\pi {\sqrt {0.75-y^{2}}}}}={\tfrac {1}{2}}+{\tfrac {1}{\pi }}\arcsin {\sqrt {0.75}}={\tfrac {5}{6}}.}

De manera más general,

P ( Y y | X = x ) = 1 2 + 1 π arcsin y 1 x 2 {\displaystyle \mathbb {P} (Y\leq y|X=x)={\tfrac {1}{2}}+{\tfrac {1}{\pi }}\arcsin {\frac {y}{\sqrt {1-x^{2}}}}}

para todos los x e y tales que −1 < x < 1 (de lo contrario, el denominador f X ( x ) se anula) y (de lo contrario, la probabilidad condicional degenera a 0 o 1). También se puede tratar la probabilidad condicional como una variable aleatoria, una función de la variable aleatoria X , es decir, 1 x 2 < y < 1 x 2 {\displaystyle \textstyle -{\sqrt {1-x^{2}}}<y<{\sqrt {1-x^{2}}}}

P ( Y y | X ) = { 0 for  X 2 1 y 2  and  y < 0 , 1 2 + 1 π arcsin y 1 X 2 for  X 2 < 1 y 2 , 1 for  X 2 1 y 2  and  y > 0. {\displaystyle \mathbb {P} (Y\leq y|X)={\begin{cases}0&{\text{for }}X^{2}\geq 1-y^{2}{\text{ and }}y<0,\\{\frac {1}{2}}+{\frac {1}{\pi }}\arcsin {\frac {y}{\sqrt {1-X^{2}}}}&{\text{for }}X^{2}<1-y^{2},\\1&{\text{for }}X^{2}\geq 1-y^{2}{\text{ and }}y>0.\end{cases}}}

La expectativa de esta variable aleatoria es igual a la probabilidad (incondicional),

E ( P ( Y y | X ) ) = + P ( Y y | X = x ) f X ( x ) d x = P ( Y y ) , {\displaystyle \mathbb {E} (\mathbb {P} (Y\leq y|X))=\int _{-\infty }^{+\infty }\mathbb {P} (Y\leq y|X=x)f_{X}(x)\,\mathrm {d} x=\mathbb {P} (Y\leq y),}

que es una instancia de la ley de probabilidad total E ( P ( A | X ) ) = P ( A ).

Interpretación

La probabilidad condicional P ( Y ≤ 0,75 | X = 0,5 ) no puede interpretarse como P ( Y ≤ 0,75, X = 0,5 ) / P ( X = 0,5 ), ya que esta última da 0/0. En consecuencia, P ( Y ≤ 0,75 | X = 0,5 ) no puede interpretarse mediante frecuencias empíricas, ya que el valor exacto X = 0,5 no tiene ninguna posibilidad de aparecer al azar, ni siquiera una vez durante una secuencia infinita de ensayos independientes.

La probabilidad condicional puede interpretarse como un límite,

P ( Y 0.75 | X = 0.5 ) = lim ε 0 + P ( Y 0.75 | 0.5 ε < X < 0.5 + ε ) = lim ε 0 + P ( Y 0.75 , 0.5 ε < X < 0.5 + ε ) P ( 0.5 ε < X < 0.5 + ε ) = lim ε 0 + 0.5 ε 0.5 + ε d x 0.75 d y f X , Y ( x , y ) 0.5 ε 0.5 + ε d x f X ( x ) . {\displaystyle {\begin{aligned}\mathbb {P} (Y\leq 0.75|X=0.5)&=\lim _{\varepsilon \to 0+}\mathbb {P} (Y\leq 0.75|0.5-\varepsilon <X<0.5+\varepsilon )\\&=\lim _{\varepsilon \to 0+}{\frac {\mathbb {P} (Y\leq 0.75,0.5-\varepsilon <X<0.5+\varepsilon )}{\mathbb {P} (0.5-\varepsilon <X<0.5+\varepsilon )}}\\&=\lim _{\varepsilon \to 0+}{\frac {\int _{0.5-\varepsilon }^{0.5+\varepsilon }\mathrm {d} x\int _{-\infty }^{0.75}\mathrm {d} y\,f_{X,Y}(x,y)}{\int _{0.5-\varepsilon }^{0.5+\varepsilon }\mathrm {d} x\,f_{X}(x)}}.\end{aligned}}}

Expectativa condicional

La esperanza condicional E ( Y | X = 0,5 ) tiene poco interés; se desvanece simplemente por simetría. Es más interesante calcular E ( | Z | | X = 0,5 ) considerando | Z | como una función de X , Y :

| Z | = h ( X , Y ) = 1 X 2 Y 2 ; E ( | Z | | X = 0.5 ) = + h ( 0.5 , y ) f Y | X = 0.5 ( y ) d y = = 0.75 + 0.75 0.75 y 2 d y π 0.75 y 2 = 2 π 0.75 . {\displaystyle {\begin{aligned}|Z|&=h(X,Y)={\sqrt {1-X^{2}-Y^{2}}};\\\mathrm {E} (|Z||X=0.5)&=\int _{-\infty }^{+\infty }h(0.5,y)f_{Y|X=0.5}(y)\,\mathrm {d} y=\\&=\int _{-{\sqrt {0.75}}}^{+{\sqrt {0.75}}}{\sqrt {0.75-y^{2}}}\cdot {\frac {\mathrm {d} y}{\pi {\sqrt {0.75-y^{2}}}}}\\&={\frac {2}{\pi }}{\sqrt {0.75}}.\end{aligned}}}

De manera más general,

E ( | Z | | X = x ) = 2 π 1 x 2 {\displaystyle \mathbb {E} (|Z||X=x)={\frac {2}{\pi }}{\sqrt {1-x^{2}}}}

para −1 < x < 1. También se puede tratar la expectativa condicional como una variable aleatoria, una función de la variable aleatoria X , es decir,

E ( | Z | | X ) = 2 π 1 X 2 . {\displaystyle \mathbb {E} (|Z||X)={\frac {2}{\pi }}{\sqrt {1-X^{2}}}.}

La esperanza de esta variable aleatoria es igual a la esperanza (incondicional) de | Z |,

E ( E ( | Z | | X ) ) = + E ( | Z | | X = x ) f X ( x ) d x = E ( | Z | ) , {\displaystyle \mathbb {E} (\mathbb {E} (|Z||X))=\int _{-\infty }^{+\infty }\mathbb {E} (|Z||X=x)f_{X}(x)\,\mathrm {d} x=\mathbb {E} (|Z|),}

a saber,

1 + 1 2 π 1 x 2 d x 2 = 1 2 , {\displaystyle \int _{-1}^{+1}{\frac {2}{\pi }}{\sqrt {1-x^{2}}}\cdot {\frac {\mathrm {d} x}{2}}={\tfrac {1}{2}},}

que es una instancia de la ley de expectativa total E ( E ( Y | X ) ) = E ( Y ).

La variable aleatoria E(| Z | | X ) es el mejor predictor de | Z | dado X . Es decir, minimiza el error cuadrático medio E ( | Z | - f ( X ) ) 2 en la clase de todas las variables aleatorias de la forma f ( X ). De manera similar al caso discreto, E ( | Z | | g ( X ) ) = E ( | Z | | X ) para cada función medible g que sea biunívoca en (-1,1).

Distribución condicional

Dado X = x, la distribución condicional de Y , dada por la densidad f Y | X = x (y), es la distribución de arcoseno (reescalada); su función de distribución acumulativa es

F Y | X = x ( y ) = P ( Y y | X = x ) = 1 2 + 1 π arcsin y 1 x 2 {\displaystyle F_{Y|X=x}(y)=\mathbb {P} (Y\leq y|X=x)={\frac {1}{2}}+{\frac {1}{\pi }}\arcsin {\frac {y}{\sqrt {1-x^{2}}}}}

para todos los x e y tales que x 2 + y 2 < 1. La esperanza correspondiente de h ( x , Y ) no es otra cosa que la esperanza condicional E ( h ( X , Y ) | X = x ). La mezcla de estas distribuciones condicionales, tomadas para todos los x (según la distribución de X ) es la distribución incondicional de Y . Este hecho equivale a las igualdades

+ f Y | X = x ( y ) f X ( x ) d x = f Y ( y ) , + F Y | X = x ( y ) f X ( x ) d x = F Y ( y ) , {\displaystyle {\begin{aligned}&\int _{-\infty }^{+\infty }f_{Y|X=x}(y)f_{X}(x)\,\mathrm {d} x=f_{Y}(y),\\&\int _{-\infty }^{+\infty }F_{Y|X=x}(y)f_{X}(x)\,\mathrm {d} x=F_{Y}(y),\end{aligned}}}

siendo este último el ejemplo de la ley de probabilidad total mencionada anteriormente.

¿Qué no es el condicionamiento?

En el nivel discreto, el condicionamiento sólo es posible si la condición es de probabilidad distinta de cero (no se puede dividir por cero). En el nivel de densidades, el condicionamiento sobre X = x es posible aunque P ( X = x ) = 0. Este éxito puede crear la ilusión de que el condicionamiento siempre es posible. Lamentablemente, no lo es, por varias razones que se presentan a continuación.

Intuición geométrica: precaución

El resultado P ( Y ≤ 0,75 | X = 0,5 ) = 5/6, mencionado anteriormente, es geométricamente evidente en el siguiente sentido. Los puntos ( x , y , z ) de la esfera x 2 + y 2 + z 2 = 1, que satisfacen la condición x = 0,5, son un círculo y 2 + z 2 = 0,75 de radio en el plano x = 0,5. La desigualdad y ≤ 0,75 se cumple en un arco. La longitud del arco es 5/6 de la longitud del círculo, por lo que la probabilidad condicional es igual a 5/6. 0.75 {\displaystyle {\sqrt {0.75}}}

Esta exitosa explicación geométrica puede crear la ilusión de que la siguiente pregunta es trivial.

Se elige al azar (de manera uniforme) un punto de una esfera dada. Dado que el punto se encuentra en un plano dado, ¿cuál es su distribución condicional?

Puede parecer evidente que la distribución condicional debe ser uniforme en el círculo dado (la intersección de la esfera dada y el plano dado). A veces realmente lo es, pero en general no lo es. En particular, Z se distribuye uniformemente en (-1,+1) e independiente de la relación Y / X , por lo tanto, P ( Z ≤ 0,5 | Y / X ) = 0,75. Por otro lado, la desigualdad z ≤ 0,5 se cumple en un arco del círculo x 2 + y 2 + z 2 = 1, y = cx (para cualquier c dado ). La longitud del arco es 2/3 de la longitud del círculo. Sin embargo, la probabilidad condicional es 3/4, no 2/3. Esta es una manifestación de la paradoja clásica de Borel. [4] [5]

Las apelaciones a la simetría pueden ser engañosas si no se formalizan como argumentos de invariancia.

—Pollard  [6 ]

Otro ejemplo: una rotación aleatoria del espacio tridimensional es una rotación con un ángulo aleatorio alrededor de un eje aleatorio. La intuición geométrica sugiere que el ángulo es independiente del eje y se distribuye de manera uniforme. Sin embargo, esto último es erróneo; los valores pequeños del ángulo son menos probables.

El procedimiento limitante

Dado un evento B de probabilidad cero, la fórmula es inútil, sin embargo, se puede intentar una secuencia apropiada de eventos B n de probabilidad distinta de cero tal que B nB (es decir, y ). Un ejemplo se da arriba. Dos ejemplos más son el puente browniano y la excursión browniana . P ( A | B ) = P ( A B ) / P ( B ) {\displaystyle \textstyle \mathbb {P} (A|B)=\mathbb {P} (A\cap B)/\mathbb {P} (B)} P ( A | B ) = lim n P ( A B n ) / P ( B n ) {\displaystyle \textstyle \mathbb {P} (A|B)=\lim _{n\to \infty }\mathbb {P} (A\cap B_{n})/\mathbb {P} (B_{n})} B 1 B 2 {\displaystyle \textstyle B_{1}\supset B_{2}\supset \dots } B 1 B 2 = B {\displaystyle \textstyle B_{1}\cap B_{2}\cap \dots =B}

En los dos últimos ejemplos, la ley de probabilidad total es irrelevante, ya que solo se da un único evento (la condición). Por el contrario, en el ejemplo anterior se aplica la ley de probabilidad total, ya que el evento X = 0,5 está incluido en una familia de eventos X = x donde x se extiende sobre (−1,1), y estos eventos son una partición del espacio de probabilidad.

Para evitar paradojas (como la paradoja de Borel ), se debe tener en cuenta la siguiente distinción importante. Si un evento dado es de probabilidad distinta de cero, entonces el condicionamiento sobre él está bien definido (independientemente de cualquier otro evento), como se señaló anteriormente. Por el contrario, si el evento dado es de probabilidad cero, entonces el condicionamiento sobre él está mal definido a menos que se proporcione algún dato adicional. La elección incorrecta de este dato adicional conduce a probabilidades condicionales erróneas (expectativas, distribuciones). En este sentido, " el concepto de una probabilidad condicional con respecto a una hipótesis aislada cuya probabilidad es igual a cero es inadmisible " . ( Kolmogorov [6] )

La entrada adicional puede ser (a) una simetría (grupo de invariancia); (b) una secuencia de eventos B n tales que B nB , P ( B n ) > 0; (c) una partición que contiene el evento dado. El condicionamiento teórico de la medida (a continuación) investiga el caso (c), revela su relación con (b) en general y con (a) cuando corresponde.

Algunos eventos de probabilidad cero están fuera del alcance del condicionamiento. Un ejemplo: sean X n variables aleatorias independientes distribuidas uniformemente en (0,1), y B el evento " X n → 0 cuando n → ∞"; ¿qué sucede con P ( X n < 0,5 | B )? ¿Tiende a 1 o no? Otro ejemplo: sea X una variable aleatoria distribuida uniformemente en (0,1), y B el evento " X es un número racional"; ¿qué sucede con P ( X = 1/ n | B )? La única respuesta es que, una vez más,

El concepto de probabilidad condicional con respecto a una hipótesis aislada cuya probabilidad es igual a cero es inadmisible.

—  Kolmogorov [6]

Condicionamiento en el nivel de la teoría de la medida

Ejemplo . Sea Y una variable aleatoria distribuida uniformemente en (0,1), y X = f ( Y ) donde f es una función dada. A continuación se tratan dos casos: f = f 1 y f = f 2 , donde f 1 es la función lineal continua por partes .

f 1 ( y ) = { 3 y for  0 y 1 / 3 , 1.5 ( 1 y ) for  1 / 3 y 2 / 3 , 0.5 for  2 / 3 y 1 , {\displaystyle f_{1}(y)={\begin{cases}3y&{\text{for }}0\leq y\leq 1/3,\\1.5(1-y)&{\text{for }}1/3\leq y\leq 2/3,\\0.5&{\text{for }}2/3\leq y\leq 1,\end{cases}}}

y f 2 es la función de Weierstrass .

Intuición geométrica: precaución

Dado X = 0,75, son posibles dos valores de Y , 0,25 y 0,5. Puede parecer evidente que ambos valores tienen una probabilidad condicional de 0,5 simplemente porque un punto es congruente con otro. Sin embargo, esto es una ilusión; véase más abajo.

Probabilidad condicional

La probabilidad condicional P ( Y ≤ 1/3 | X ) puede definirse como el mejor predictor del indicador

I = { 1 if  Y 1 / 3 , 0 otherwise , {\displaystyle I={\begin{cases}1&{\text{if }}Y\leq 1/3,\\0&{\text{otherwise}},\end{cases}}}

dado X . Es decir, minimiza el error cuadrático medio E ( I - g ( X ) ) 2 en la clase de todas las variables aleatorias de la forma g ( X ).

En el caso f = f 1 la función correspondiente g = g 1 puede calcularse explícitamente, [detalles 1]

g 1 ( x ) = { 1 for  0 < x < 0.5 , 0 for  x = 0.5 , 1 / 3 for  0.5 < x < 1. {\displaystyle g_{1}(x)={\begin{cases}1&{\text{for }}0<x<0.5,\\0&{\text{for }}x=0.5,\\1/3&{\text{for }}0.5<x<1.\end{cases}}}

Alternativamente, se puede utilizar el procedimiento de limitación,

g 1 ( x ) = lim ε 0 + P ( Y 1 / 3 | x ε X x + ε ) , {\displaystyle g_{1}(x)=\lim _{\varepsilon \to 0+}\mathbb {P} (Y\leq 1/3|x-\varepsilon \leq X\leq x+\varepsilon )\,,}

dando el mismo resultado.

Por lo tanto, P ( Y ≤ 1/3 | X ) = g 1 ( X ). La esperanza de esta variable aleatoria es igual a la probabilidad (incondicional), E ( P ( Y ≤ 1/3 | X ) ) = P ( Y ≤ 1/3 ), es decir,

1 P ( X < 0.5 ) + 0 P ( X = 0.5 ) + 1 3 P ( X > 0.5 ) = 1 1 6 + 0 1 3 + 1 3 ( 1 6 + 1 3 ) = 1 3 , {\displaystyle 1\cdot \mathbb {P} (X<0.5)+0\cdot \mathbb {P} (X=0.5)+{\frac {1}{3}}\cdot \mathbb {P} (X>0.5)=1\cdot {\frac {1}{6}}+0\cdot {\frac {1}{3}}+{\frac {1}{3}}\cdot \left({\frac {1}{6}}+{\frac {1}{3}}\right)={\frac {1}{3}},}

que es una instancia de la ley de probabilidad total E ( P ( A | X ) ) = P ( A ).

En el caso de f = f 2, la función correspondiente g = g 2 probablemente no se pueda calcular explícitamente. Sin embargo, existe y se puede calcular numéricamente. De hecho, el espacio L 2 (Ω) de todas las variables aleatorias integrables al cuadrado es un espacio de Hilbert ; el indicador I es un vector de este espacio; y las variables aleatorias de la forma g ( X ) son un subespacio (cerrado, lineal). La proyección ortogonal de este vector a este subespacio está bien definida. Se puede calcular numéricamente, utilizando aproximaciones de dimensión finita al espacio de Hilbert de dimensión infinita.

Una vez más, la esperanza de la variable aleatoria P ( Y ≤ 1/3 | X ) = g 2 ( X ) es igual a la probabilidad (incondicional), E ( P ( Y ≤ 1/3 | X ) ) = P ( Y ≤ 1/3 ), es decir,

0 1 g 2 ( f 2 ( y ) ) d y = 1 3 . {\displaystyle \int _{0}^{1}g_{2}(f_{2}(y))\,\mathrm {d} y={\tfrac {1}{3}}.}

Sin embargo, el enfoque del espacio de Hilbert trata a g 2 como una clase de equivalencia de funciones en lugar de una función individual. La mensurabilidad de g 2 está asegurada, pero la continuidad (o incluso la integrabilidad de Riemann ) no lo está. El valor g 2 (0,5) se determina de forma única, ya que el punto 0,5 es un átomo de la distribución de X . Otros valores x no son átomos, por lo tanto, los valores correspondientes g 2 ( x ) no se determinan de forma única. Una vez más, " el concepto de una probabilidad condicional con respecto a una hipótesis aislada cuya probabilidad es igual a 0 es inadmisible ". ( Kolmogorov . [6]

Alternativamente, la misma función g (ya sea g 1 o g 2 ) puede definirse como la derivada de Radon-Nikodym

g = d ν d μ , {\displaystyle g={\frac {\mathrm {d} \nu }{\mathrm {d} \mu }},}

donde las medidas μ, ν se definen por

μ ( B ) = P ( X B ) , ν ( B ) = P ( X B , Y 1 3 ) {\displaystyle {\begin{aligned}\mu (B)&=\mathbb {P} (X\in B),\\\nu (B)&=\mathbb {P} (X\in B,\,Y\leq {\tfrac {1}{3}})\end{aligned}}}

para todos los conjuntos de Borel Es decir, μ es la distribución (incondicional) de X , mientras que ν es un tercio de su distribución condicional, B R . {\displaystyle B\subset \mathbb {R} .}

ν ( B ) = P ( X B | Y 1 3 ) P ( Y 1 3 ) = 1 3 P ( X B | Y 1 3 ) . {\displaystyle \nu (B)=\mathbb {P} (X\in B|Y\leq {\tfrac {1}{3}})\mathbb {P} (Y\leq {\tfrac {1}{3}})={\tfrac {1}{3}}\mathbb {P} (X\in B|Y\leq {\tfrac {1}{3}}).}

Ambos enfoques (a través del espacio de Hilbert y de la derivada de Radon-Nikodym) tratan a g como una clase de equivalencia de funciones; dos funciones g y g′ se tratan como equivalentes si g ( X ) = g′ ( X ) es casi seguro. En consecuencia, la probabilidad condicional P ( Y ≤ 1/3 | X ) se trata como una clase de equivalencia de variables aleatorias; como es habitual, dos variables aleatorias se tratan como equivalentes si son iguales casi con seguridad.

Expectativa condicional

La expectativa condicional puede definirse como el mejor predictor de Y dado X. Es decir, minimiza el error cuadrático medio en la clase de todas las variables aleatorias de la forma h ( X ). E ( Y | X ) {\displaystyle \mathbb {E} (Y|X)} E ( Y h ( X ) ) 2 {\displaystyle \mathbb {E} (Y-h(X))^{2}}

En el caso f = f 1 la función correspondiente h = h 1 puede calcularse explícitamente, [detalles 2]

h 1 ( x ) = { x 3 0 < x < 1 2 5 6 x = 1 2 1 3 ( 2 x ) 1 2 < x < 1 {\displaystyle h_{1}(x)={\begin{cases}{\frac {x}{3}}&0<x<{\frac {1}{2}}\\[4pt]{\frac {5}{6}}&x={\frac {1}{2}}\\[4pt]{\frac {1}{3}}(2-x)&{\frac {1}{2}}<x<1\end{cases}}}

Alternativamente, se puede utilizar el procedimiento de limitación,

h 1 ( x ) = lim ε 0 + E ( Y | x ε X x + ε ) , {\displaystyle h_{1}(x)=\lim _{\varepsilon \to 0+}\mathbb {E} (Y|x-\varepsilon \leqslant X\leqslant x+\varepsilon ),}

dando el mismo resultado.

Por lo tanto, la esperanza de esta variable aleatoria es igual a la esperanza (incondicional), es decir, E ( Y | X ) = h 1 ( X ) . {\displaystyle \mathbb {E} (Y|X)=h_{1}(X).} E ( E ( Y | X ) ) = E ( Y ) , {\displaystyle \mathbb {E} (\mathbb {E} (Y|X))=\mathbb {E} (Y),}

0 1 h 1 ( f 1 ( y ) ) d y = 0 1 6 3 y 3 d y + 1 6 1 3 2 3 y 3 d y + 1 3 2 3 2 3 2 ( 1 y ) 3 d y + 2 3 1 5 6 d y = 1 2 , {\displaystyle \int _{0}^{1}h_{1}(f_{1}(y))\,\mathrm {d} y=\int _{0}^{\frac {1}{6}}{\frac {3y}{3}}\,\mathrm {d} y+\int _{\frac {1}{6}}^{\frac {1}{3}}{\frac {2-3y}{3}}\,\mathrm {d} y+\int _{\frac {1}{3}}^{\frac {2}{3}}{\frac {2-{\frac {3}{2}}(1-y)}{3}}\,\mathrm {d} y+\int _{\frac {2}{3}}^{1}{\frac {5}{6}}\,\mathrm {d} y={\frac {1}{2}},}

que es un ejemplo de la ley de la expectativa total E ( E ( Y | X ) ) = E ( Y ) . {\displaystyle \mathbb {E} (\mathbb {E} (Y|X))=\mathbb {E} (Y).}

En el caso de f = f 2, la función correspondiente h = h 2 probablemente no se pueda calcular explícitamente. No obstante, existe y se puede calcular numéricamente de la misma manera que g 2 , como proyección ortogonal en el espacio de Hilbert. La ley de la esperanza total se cumple, ya que la proyección no puede cambiar el producto escalar por la constante 1 perteneciente al subespacio.

Alternativamente, la misma función h (ya sea h 1 o h 2 ) puede definirse como la derivada de Radon-Nikodym

h = d ν d μ , {\displaystyle h={\frac {\mathrm {d} \nu }{\mathrm {d} \mu }},}

donde las medidas μ, ν se definen por

μ ( B ) = P ( X B ) ν ( B ) = E ( Y , X B ) {\displaystyle {\begin{aligned}\mu (B)&=\mathbb {P} (X\in B)\\\nu (B)&=\mathbb {E} (Y,X\in B)\end{aligned}}}

Para todos los conjuntos de Borel Aquí está la expectativa restringida, que no debe confundirse con la expectativa condicional. B R . {\displaystyle B\subset \mathbb {R} .} E ( Y ; A ) {\displaystyle \mathbb {E} (Y;A)} E ( Y | A ) = E ( Y ; A ) / P ( A ) . {\displaystyle \mathbb {E} (Y|A)=\mathbb {E} (Y;A)/\mathbb {P} (A).}

Distribución condicional

En el caso de f = f 1, la función de distribución acumulativa condicional se puede calcular explícitamente, de manera similar a g 1 . El procedimiento de limitación da:

F Y | X = 3 4 ( y ) = P ( Y y | X = 3 4 ) = lim ε 0 + P ( Y y | 3 4 ε X 3 4 + ε ) = { 0 < y < 1 4 1 6 y = 1 4 1 3 1 4 < y < 1 2 2 3 y = 1 2 1 1 2 < y < {\displaystyle F_{Y|X={\frac {3}{4}}}(y)=\mathbb {P} \left(Y\leqslant y\left|X={\tfrac {3}{4}}\right.\right)=\lim _{\varepsilon \to 0^{+}}\mathbb {P} \left(Y\leqslant y\left|{\tfrac {3}{4}}-\varepsilon \leqslant X\leqslant {\tfrac {3}{4}}+\varepsilon \right.\right)={\begin{cases}0&-\infty <y<{\tfrac {1}{4}}\\[4pt]{\tfrac {1}{6}}&y={\tfrac {1}{4}}\\[4pt]{\tfrac {1}{3}}&{\tfrac {1}{4}}<y<{\tfrac {1}{2}}\\[4pt]{\tfrac {2}{3}}&y={\tfrac {1}{2}}\\[4pt]1&{\tfrac {1}{2}}<y<\infty \end{cases}}}

lo cual no puede ser correcto, ya que una función de distribución acumulativa debe ser continua hacia la derecha .

Este resultado paradójico se explica mediante la teoría de la medida de la siguiente manera. Para una y dada, la función correspondiente está bien definida (mediante el espacio de Hilbert o la derivada de Radon-Nikodym) como una clase de equivalencia de funciones (de x ). Si se la trata como una función de y para una x dada , está mal definida a menos que se proporcione alguna entrada adicional. Es decir, se debe elegir una función (de x ) dentro de cada (o al menos casi cada) clase de equivalencia. Una elección incorrecta conduce a funciones de distribución acumulativa condicionales incorrectas. F Y | X = x ( y ) = P ( Y y | X = x ) {\displaystyle F_{Y|X=x}(y)=\mathbb {P} (Y\leqslant y|X=x)}

Se puede hacer una elección correcta de la siguiente manera. Primero, se considera solo para números racionales y . (Cualquier otro conjunto numerable denso se puede usar igualmente bien). Por lo tanto, solo se usa un conjunto numerable de clases de equivalencia; todas las elecciones de funciones dentro de estas clases son mutuamente equivalentes, y la función correspondiente de y racional está bien definida (para casi cada x ). Segundo, la función se extiende de números racionales a números reales por continuidad correcta. F Y | X = x ( y ) = P ( Y y | X = x ) {\displaystyle F_{Y|X=x}(y)=\mathbb {P} (Y\leqslant y|X=x)}

En general, la distribución condicional se define para casi todos los x (según la distribución de X ), pero a veces el resultado es continuo en x , en cuyo caso son aceptables los valores individuales. En el ejemplo considerado, este es el caso; el resultado correcto para x = 0,75,

F Y | X = 3 4 ( y ) = P ( Y y | X = 3 4 ) = { 0 < y < 1 4 1 3 1 4 y < 1 2 1 1 2 y < {\displaystyle F_{Y|X={\frac {3}{4}}}(y)=\mathbb {P} \left(Y\leqslant y\left|X={\tfrac {3}{4}}\right.\right)={\begin{cases}0&-\infty <y<{\tfrac {1}{4}}\\[4pt]{\tfrac {1}{3}}&{\tfrac {1}{4}}\leqslant y<{\tfrac {1}{2}}\\[4pt]1&{\tfrac {1}{2}}\leqslant y<\infty \end{cases}}}

muestra que la distribución condicional de Y dado X = 0,75 consta de dos átomos, en 0,25 y 0,5, de probabilidades 1/3 y 2/3 respectivamente.

De manera similar, la distribución condicional se puede calcular para todos los x en (0, 0,5) o (0,5, 1).

El valor x = 0,5 es un átomo de la distribución de X , por lo tanto, la distribución condicional correspondiente está bien definida y puede calcularse por medios elementales (el denominador no se anula); la distribución condicional de Y dado X = 0,5 es uniforme en (2/3, 1). La teoría de la medida conduce al mismo resultado.

La mezcla de todas las distribuciones condicionales es la distribución (incondicional) de Y.

La expectativa condicional no es otra cosa que la expectativa con respecto a la distribución condicional. E ( Y | X = x ) {\displaystyle \mathbb {E} (Y|X=x)}

En el caso de f = f 2, la función correspondiente probablemente no se pueda calcular explícitamente. Para una y dada , está bien definida (a través del espacio de Hilbert o la derivada de Radon-Nikodym) como una clase de equivalencia de funciones (de x ). La elección correcta de funciones dentro de estas clases de equivalencia se puede hacer como se indicó anteriormente; esto conduce a funciones de distribución acumulativa condicionales correctas, es decir, distribuciones condicionales. En general, las distribuciones condicionales no necesitan ser atómicas o absolutamente continuas (ni mezclas de ambos tipos). Probablemente, en el ejemplo considerado son singulares (como la distribución de Cantor ). F Y | X = x ( y ) = P ( Y y | X = x ) {\displaystyle F_{Y|X=x}(y)=\mathbb {P} (Y\leqslant y|X=x)}

Una vez más, la mezcla de todas las distribuciones condicionales es la distribución (incondicional), y la expectativa condicional es la expectativa con respecto a la distribución condicional.

Detalles técnicos

  1. ^ Prueba:
    E ( I g ( X ) ) 2 = 0 1 / 3 ( 1 g ( 3 y ) ) 2 d y + 1 / 3 2 / 3 g 2 ( 1.5 ( 1 y ) ) d y + 2 / 3 1 g 2 ( 0.5 ) d y = 0 1 ( 1 g ( x ) ) 2 d x 3 + 0.5 1 g 2 ( x ) d x 1.5 + 1 3 g 2 ( 0.5 ) = 1 3 0 0.5 ( 1 g ( x ) ) 2 d x + 1 3 g 2 ( 0.5 ) + 1 3 0.5 1 ( ( 1 g ( x ) ) 2 + 2 g 2 ( x ) ) d x ; {\displaystyle {\begin{aligned}\mathbb {E} (I-g(X))^{2}&=\int _{0}^{1/3}(1-g(3y))^{2}\,\mathrm {d} y+\int _{1/3}^{2/3}g^{2}(1.5(1-y))\,\mathrm {d} y+\int _{2/3}^{1}g^{2}(0.5)\,\mathrm {d} y\\&=\int _{0}^{1}(1-g(x))^{2}{\frac {\mathrm {d} x}{3}}+\int _{0.5}^{1}g^{2}(x){\frac {\mathrm {d} x}{1.5}}+{\frac {1}{3}}g^{2}(0.5)\\&={\frac {1}{3}}\int _{0}^{0.5}(1-g(x))^{2}\,\mathrm {d} x+{\frac {1}{3}}g^{2}(0.5)+{\frac {1}{3}}\int _{0.5}^{1}((1-g(x))^{2}+2g^{2}(x))\,\mathrm {d} x\,;\end{aligned}}}
    Queda por notar que (1− a ) 2 + 2 a 2 es mínimo en a = 1/3.
  2. ^ Prueba:
    E ( Y h 1 ( X ) ) 2 = 0 1 ( y h 1 ( f 1 ( x ) ) ) 2 d y = 0 1 3 ( y h 1 ( 3 y ) ) 2 d y + 1 3 2 3 ( y h 1 ( 1.5 ( 1 y ) ) ) 2 d y + 2 3 1 ( y h 1 ( 1 2 ) ) 2 d y = 0 1 ( x 3 h 1 ( x ) ) 2 d x 3 + 1 2 1 ( 1 x 1.5 h 1 ( x ) ) 2 d x 1.5 + 1 3 h 1 2 ( 1 2 ) 5 9 h 1 ( 1 2 ) + 19 81 = 1 3 0 1 2 ( h 1 ( x ) x 3 ) 2 d x + 1 3 h 1 2 ( 1 2 ) 5 9 h 1 ( 1 2 ) + 19 81 + 1 3 1 2 1 ( ( h 1 ( x ) x 3 ) 2 + 2 ( h 1 ( x ) 1 + 2 x 3 ) 2 ) d x ; {\displaystyle {\begin{aligned}\mathbb {E} (Y-h_{1}(X))^{2}&=\int _{0}^{1}\left(y-h_{1}(f_{1}(x))\right)^{2}\,\mathrm {d} y\\&=\int _{0}^{\frac {1}{3}}(y-h_{1}(3y))^{2}\,\mathrm {d} y+\int _{\frac {1}{3}}^{\frac {2}{3}}\left(y-h_{1}(1.5(1-y))\right)^{2}\,\mathrm {d} y+\int _{\frac {2}{3}}^{1}\left(y-h_{1}({\tfrac {1}{2}})\right)^{2}\,\mathrm {d} y\\&=\int _{0}^{1}\left({\frac {x}{3}}-h_{1}(x)\right)^{2}{\frac {\mathrm {d} x}{3}}+\int _{\frac {1}{2}}^{1}\left(1-{\frac {x}{1.5}}-h_{1}(x)\right)^{2}{\frac {\mathrm {d} x}{1.5}}+{\frac {1}{3}}h_{1}^{2}({\tfrac {1}{2}})-{\frac {5}{9}}h_{1}({\tfrac {1}{2}})+{\frac {19}{81}}\\&={\frac {1}{3}}\int _{0}^{\frac {1}{2}}\left(h_{1}(x)-{\frac {x}{3}}\right)^{2}\,\mathrm {d} x+{\tfrac {1}{3}}h_{1}^{2}({\tfrac {1}{2}})-{\tfrac {5}{9}}h_{1}({\tfrac {1}{2}})+{\tfrac {19}{81}}+{\tfrac {1}{3}}\int _{\frac {1}{2}}^{1}\left(\left(h_{1}(x)-{\frac {x}{3}}\right)^{2}+2\left(h_{1}(x)-1+{\frac {2x}{3}}\right)^{2}\right)\,\mathrm {d} x;\end{aligned}}}
    Queda por señalar que
    ( a x 3 ) 2 + 2 ( a 1 + 2 x 3 ) 2 {\displaystyle \left(a-{\frac {x}{3}}\right)^{2}+2\left(a-1+{\frac {2x}{3}}\right)^{2}}
    es mínimo en y es mínimo en a = 2 x 3 , {\displaystyle a={\tfrac {2-x}{3}},} 1 3 a 2 5 9 a {\displaystyle {\tfrac {1}{3}}a^{2}-{\tfrac {5}{9}}a} a = 5 6 . {\displaystyle a={\tfrac {5}{6}}.}

Véase también

Notas

  1. ^ "Mathematica/Distribución esférica uniforme - Wikilibros, libros abiertos para un mundo abierto". en.wikibooks.org . Consultado el 27 de octubre de 2018 .
  2. ^ Buchanan, K.; Huff, GH (julio de 2011). "Una comparación de matrices aleatorias geométricamente acotadas en el espacio euclidiano". Simposio internacional IEEE sobre antenas y propagación (APSURSI) de 2011. págs. 2008–2011. doi :10.1109/APS.2011.5996900. ISBN 978-1-4244-9563-4.S2CID10446533  .
  3. ^ Buchanan, K.; Flores, C.; Wheeland, S.; Jensen, J.; Grayson, D.; Huff, G. (mayo de 2017). "Formación de haz de transmisión para aplicaciones de radar utilizando matrices aleatorias cónicas circulares". Conferencia de radar IEEE de 2017 (RadarConf) . págs. 0112–0117. doi :10.1109/RADAR.2017.7944181. ISBN . 978-1-4673-8823-8. Número de identificación del sujeto  38429370.
  4. ^ Pollard 2002, Sect. 5.5, Ejemplo 17 en la página 122.
  5. ^ Durrett 1996, Sect. 4.1(a), Ejemplo 1.6 en la página 224.
  6. ^ abcd Pollard 2002, Secc. 5.5, página 122.

Referencias

  • Durrett, Richard (1996), Probabilidad: teoría y ejemplos (Segunda ed.)
  • Pollard, David (2002), Una guía del usuario para medir la probabilidad teórica , Cambridge University Press
  • Draheim, Dirk (2017) Condicionalización generalizada de Jeffrey (Una semántica frecuentista de la condicionalización parcial), Springer
Retrieved from "https://en.wikipedia.org/w/index.php?title=Conditioning_(probability)&oldid=1166493300"