Espacio de probabilidad

Concepto matemático

En teoría de la probabilidad , un espacio de probabilidad o una terna de probabilidad es una construcción matemática que proporciona un modelo formal de un proceso aleatorio o "experimento". Por ejemplo, se puede definir un espacio de probabilidad que modele el lanzamiento de un dado . ( Ω , F , P ) {\displaystyle (\Omega ,{\mathcal {F}},P)}

Un espacio de probabilidad consta de tres elementos: [1] [2]

  1. Un espacio muestral , , que es el conjunto de todos los resultados posibles . Ω {\displaystyle \Omega }
  2. Un espacio de eventos , que es un conjunto de eventos , siendo un evento un conjunto de resultados en el espacio muestral. F {\displaystyle {\mathcal {F}}}
  3. Una función de probabilidad , , que asigna, a cada evento en el espacio de eventos, una probabilidad , que es un número entre 0 y 1 (inclusive). P {\displaystyle P}

Para proporcionar un modelo de probabilidad, estos elementos deben satisfacer axiomas de probabilidad .

En el ejemplo del lanzamiento de un dado estándar,

  1. El espacio muestral es típicamente el conjunto en el que cada elemento del conjunto es una etiqueta que representa el resultado de que el dado caiga en esa etiqueta. Por ejemplo, representa el resultado de que el dado caiga en 1. Ω {\displaystyle \Omega } { 1 , 2 , 3 , 4 , 5 , 6 } {\displaystyle \{1,2,3,4,5,6\}} 1 {\displaystyle 1}
  2. El espacio de eventos podría ser el conjunto de todos los subconjuntos del espacio muestral, que entonces contendría eventos simples como ("el dado cae en 5"), así como eventos complejos como ("el dado cae en un número par"). F {\displaystyle {\mathcal {F}}} { 5 } {\displaystyle \{5\}} { 2 , 4 , 6 } {\displaystyle \{2,4,6\}}
  3. La función de probabilidad entonces asignaría cada evento a la cantidad de resultados en ese evento dividido por 6, por lo que, por ejemplo, se asignaría a , y se asignaría a . P {\displaystyle P} { 5 } {\displaystyle \{5\}} 1 / 6 {\displaystyle 1/6} { 2 , 4 , 6 } {\displaystyle \{2,4,6\}} 3 / 6 = 1 / 2 {\displaystyle 3/6=1/2}

Cuando se lleva a cabo un experimento, se obtiene exactamente un resultado del espacio muestral . Se dice que "ocurrieron" todos los eventos del espacio de eventos que contienen el resultado seleccionado . La función de probabilidad debe definirse de manera que, si el experimento se repitiera arbitrariamente muchas veces, el número de ocurrencias de cada evento como fracción del número total de experimentos tenderá, muy probablemente, hacia la probabilidad asignada a ese evento. ω {\displaystyle \omega } Ω {\displaystyle \Omega } F {\displaystyle {\mathcal {F}}} ω {\displaystyle \omega } P {\displaystyle P}

El matemático soviético Andrey Kolmogorov introdujo la noción de espacio de probabilidad y los axiomas de probabilidad en la década de 1930. En la teoría de probabilidad moderna, existen enfoques alternativos para la axiomatización, como el álgebra de variables aleatorias .

Introducción

Espacio de probabilidad para lanzar un dado dos veces seguidas: El espacio muestral consta de los 36 resultados posibles; se muestran tres eventos diferentes (polígonos coloreados), con sus respectivas probabilidades (asumiendo una distribución uniforme discreta ). Ω {\displaystyle \Omega }

Un espacio de probabilidad es un triplete matemático que presenta un modelo para una clase particular de situaciones del mundo real. Al igual que con otros modelos, su autor define en última instancia qué elementos contendrán , y . ( Ω , F , P ) {\displaystyle (\Omega ,{\mathcal {F}},P)} Ω {\displaystyle \Omega } F {\displaystyle {\mathcal {F}}} P {\displaystyle P}

  • El espacio muestral es el conjunto de todos los resultados posibles. Un resultado es el resultado de una única ejecución del modelo. Los resultados pueden ser estados de la naturaleza, posibilidades, resultados experimentales y similares. Cada instancia de la situación del mundo real (o ejecución del experimento) debe producir exactamente un resultado. Si los resultados de diferentes ejecuciones de un experimento difieren en cualquier aspecto que importe, son resultados distintos. Qué diferencias importan depende del tipo de análisis que queramos hacer. Esto conduce a diferentes opciones de espacio muestral. Ω {\displaystyle \Omega }
  • El álgebra σ es una colección de todos los eventos que nos gustaría considerar. Esta colección puede incluir o no cada uno de los eventos elementales . Aquí, un "evento" es un conjunto de cero o más resultados; es decir, un subconjunto del espacio muestral. Se considera que un evento "sucedió" durante un experimento cuando el resultado de este último es un elemento del evento. Dado que el mismo resultado puede ser un miembro de muchos eventos, es posible que hayan sucedido muchos eventos dado un solo resultado. Por ejemplo, cuando el ensayo consiste en lanzar dos dados, el conjunto de todos los resultados con una suma de 7 puntos puede constituir un evento, mientras que los resultados con un número impar de puntos pueden constituir otro evento. Si el resultado es el elemento del evento elemental de dos puntos en el primer dado y cinco en el segundo, entonces se dice que ambos eventos, "7 puntos" y "número impar de puntos", han sucedido. F {\displaystyle {\mathcal {F}}}
  • La medida de probabilidad es una función de conjunto que devuelve la probabilidad de un evento . Una probabilidad es un número real entre cero (los eventos imposibles tienen probabilidad cero, aunque los eventos de probabilidad cero no son necesariamente imposibles) y uno (el evento sucede casi seguramente , con una certeza casi total). Por lo tanto, es una función La función de medida de probabilidad debe satisfacer dos requisitos simples: primero, la probabilidad de una unión contable de eventos mutuamente excluyentes debe ser igual a la suma contable de las probabilidades de cada uno de estos eventos. Por ejemplo, la probabilidad de la unión de los eventos mutuamente excluyentes y en el experimento aleatorio de un lanzamiento de moneda, , es la suma de la probabilidad para y la probabilidad para , . Segundo, la probabilidad del espacio muestral debe ser igual a 1 (lo que explica el hecho de que, dada una ejecución del modelo, debe ocurrir algún resultado). En el ejemplo anterior, la probabilidad del conjunto de resultados debe ser igual a uno, porque es completamente seguro que el resultado será o (el modelo ignora cualquier otra posibilidad) en un solo lanzamiento de moneda. P {\displaystyle P} P {\displaystyle P} P : F [ 0 , 1 ] . {\displaystyle P:{\mathcal {F}}\to [0,1].} Head {\displaystyle {\text{Head}}} Tail {\displaystyle {\text{Tail}}} P ( Head Tail ) {\displaystyle P({\text{Head}}\cup {\text{Tail}})} Head {\displaystyle {\text{Head}}} Tail {\displaystyle {\text{Tail}}} P ( Head ) + P ( Tail ) {\displaystyle P({\text{Head}})+P({\text{Tail}})} Ω {\displaystyle \Omega } P ( { Head , Tail } ) {\displaystyle P(\{{\text{Head}},{\text{Tail}}\})} Head {\displaystyle {\text{Head}}} Tail {\displaystyle {\text{Tail}}}

No todos los subconjuntos del espacio muestral deben considerarse necesariamente un evento: algunos de los subconjuntos simplemente no son de interés, otros no pueden "medirse" . Esto no es tan obvio en un caso como el lanzamiento de una moneda. En un ejemplo diferente, se podrían considerar las longitudes de lanzamiento de jabalina, donde los eventos normalmente son intervalos como "entre 60 y 65 metros" y uniones de dichos intervalos, pero no conjuntos como los "números irracionales entre 60 y 65 metros". Ω {\displaystyle \Omega }

Definición

En resumen, un espacio de probabilidad es un espacio de medida tal que la medida de todo el espacio es igual a uno.

La definición ampliada es la siguiente: un espacio de probabilidad es una terna formada por: ( Ω , F , P ) {\displaystyle (\Omega ,{\mathcal {F}},P)}

  • el espacio muestral – un conjunto arbitrario no vacío , Ω {\displaystyle \Omega }
  • el σ-álgebra (también llamada σ-campo) – un conjunto de subconjuntos de , llamados eventos , tales que: F 2 Ω {\displaystyle {\mathcal {F}}\subseteq 2^{\Omega }} Ω {\displaystyle \Omega }
    • F {\displaystyle {\mathcal {F}}} contiene el espacio muestral: , Ω F {\displaystyle \Omega \in {\mathcal {F}}}
    • F {\displaystyle {\mathcal {F}}} está cerrado bajo complementos : si , entonces también , A F {\displaystyle A\in {\mathcal {F}}} ( Ω A ) F {\displaystyle (\Omega \setminus A)\in {\mathcal {F}}}
    • F {\displaystyle {\mathcal {F}}} está cerrado bajo uniones contables : si para , entonces también A i F {\displaystyle A_{i}\in {\mathcal {F}}} i = 1 , 2 , {\displaystyle i=1,2,\dots } ( i = 1 A i ) F {\textstyle (\bigcup _{i=1}^{\infty }A_{i})\in {\mathcal {F}}}
      • El corolario de las dos propiedades anteriores y de la ley de De Morgan es que también es cerrado bajo intersecciones contables : si para , entonces también F {\displaystyle {\mathcal {F}}} A i F {\displaystyle A_{i}\in {\mathcal {F}}} i = 1 , 2 , {\displaystyle i=1,2,\dots } ( i = 1 A i ) F {\textstyle (\bigcap _{i=1}^{\infty }A_{i})\in {\mathcal {F}}}
  • la medida de probabilidad – una función tal que: P : F [ 0 , 1 ] {\displaystyle P:{\mathcal {F}}\to [0,1]} F {\displaystyle {\mathcal {F}}}
    • P es contablemente aditivo (también llamado σ-aditivo): si es una colección contable de conjuntos disjuntos por pares , entonces { A i } i = 1 F {\displaystyle \{A_{i}\}_{i=1}^{\infty }\subseteq {\mathcal {F}}} P ( i = 1 A i ) = i = 1 P ( A i ) , {\textstyle P(\bigcup _{i=1}^{\infty }A_{i})=\sum _{i=1}^{\infty }P(A_{i}),}
    • la medida de todo el espacio muestral es igual a uno: . P ( Ω ) = 1 {\displaystyle P(\Omega )=1}

Caso discreto

La teoría de probabilidad discreta necesita solo espacios muestrales contables como máximo . Las probabilidades se pueden atribuir a puntos de mediante la función de masa de probabilidad tal que . Todos los subconjuntos de se pueden tratar como eventos (por lo tanto, es el conjunto potencia ). La medida de probabilidad toma la forma simple Ω {\displaystyle \Omega } Ω {\displaystyle \Omega } p : Ω [ 0 , 1 ] {\displaystyle p:\Omega \to [0,1]} ω Ω p ( ω ) = 1 {\textstyle \sum _{\omega \in \Omega }p(\omega )=1} Ω {\displaystyle \Omega } F = 2 Ω {\displaystyle {\mathcal {F}}=2^{\Omega }}

P ( A ) = ω A p ( ω ) for all  A Ω . {\displaystyle P(A)=\sum _{\omega \in A}p(\omega )\quad {\text{for all }}A\subseteq \Omega .} ( )

La σ-álgebra máxima describe la información completa. En general, una σ-álgebra corresponde a una partición finita o numerable , siendo la forma general de un evento . Véanse también los ejemplos. F = 2 Ω {\displaystyle {\mathcal {F}}=2^{\Omega }} F 2 Ω {\displaystyle {\mathcal {F}}\subseteq 2^{\Omega }} Ω = B 1 B 2 {\displaystyle \Omega =B_{1}\cup B_{2}\cup \dots } A F {\displaystyle A\in {\mathcal {F}}} A = B k 1 B k 2 {\displaystyle A=B_{k_{1}}\cup B_{k_{2}}\cup \dots }

El caso está permitido por la definición, pero rara vez se utiliza, ya que puede excluirse con seguridad del espacio muestral. p ( ω ) = 0 {\displaystyle p(\omega )=0} ω {\displaystyle \omega }

Caso general

Si Ω es incontable , aun así, puede suceder que P ( ω ) ≠ 0 para algunos ω ; tales ω se llaman átomos . Son un conjunto como máximo contable (quizás vacío ), cuya probabilidad es la suma de las probabilidades de todos los átomos. Si esta suma es igual a 1, entonces todos los demás puntos pueden excluirse con seguridad del espacio muestral, lo que nos devuelve al caso discreto. De lo contrario, si la suma de las probabilidades de todos los átomos está entre 0 y 1, entonces el espacio de probabilidad se descompone en una parte discreta (atómica) (quizás vacía) y una parte no atómica .

Caso no atómico

Si P ( ω ) = 0 para todo ω ∈ Ω (en este caso, Ω debe ser incontable, porque de lo contrario P(Ω) = 1 no podría satisfacerse), entonces la ecuación ( ) falla: la probabilidad de un conjunto no es necesariamente la suma sobre las probabilidades de sus elementos, ya que la suma solo se define para números contables de elementos. Esto hace que la teoría del espacio de probabilidad sea mucho más técnica. Una formulación más fuerte que la suma, la teoría de la medida, es aplicable. Inicialmente, las probabilidades se atribuyen a algunos conjuntos "generadores" (ver los ejemplos). Luego, un procedimiento de limitación permite asignar probabilidades a conjuntos que son límites de secuencias de conjuntos generadores, o límites de límites, y así sucesivamente. Todos estos conjuntos son el σ-álgebra . Para detalles técnicos, consulte el teorema de extensión de Carathéodory . Los conjuntos que pertenecen a se denominan medibles . En general, son mucho más complicados que los conjuntos generadores, pero mucho mejores que los conjuntos no medibles . F {\displaystyle {\mathcal {F}}} F {\displaystyle {\mathcal {F}}}

Espacio de probabilidad completo

Se dice que un espacio de probabilidad es un espacio de probabilidad completo si para todos con y todos se tiene . A menudo, el estudio de los espacios de probabilidad se limita a los espacios de probabilidad completos. ( Ω , F , P ) {\displaystyle (\Omega ,\;{\mathcal {F}},\;P)} B F {\displaystyle B\in {\mathcal {F}}} P ( B ) = 0 {\displaystyle P(B)=0} A B {\displaystyle A\;\subset \;B} A F {\displaystyle A\in {\mathcal {F}}}

Ejemplos

Ejemplos discretos

Ejemplo 1

Si el experimento consiste en lanzar una sola moneda al aire , entonces el resultado es cara o cruz: . El σ-álgebra contiene eventos, a saber: ("cara"), ("cruz"), ("ni cara ni cruz") y ("cara o cruz"); en otras palabras, . Hay un cincuenta por ciento de posibilidades de que salga cara y un cincuenta por ciento de que salga cruz, por lo que la medida de probabilidad en este ejemplo es , , , . Ω = { H , T } {\displaystyle \Omega =\{{\text{H}},{\text{T}}\}} F = 2 Ω {\displaystyle {\mathcal {F}}=2^{\Omega }} 2 2 = 4 {\displaystyle 2^{2}=4} { H } {\displaystyle \{{\text{H}}\}} { T } {\displaystyle \{{\text{T}}\}} { } {\displaystyle \{\}} { H , T } {\displaystyle \{{\text{H}},{\text{T}}\}} F = { { } , { H } , { T } , { H , T } } {\displaystyle {\mathcal {F}}=\{\{\},\{{\text{H}}\},\{{\text{T}}\},\{{\text{H}},{\text{T}}\}\}} P ( { } ) = 0 {\displaystyle P(\{\})=0} P ( { H } ) = 0.5 {\displaystyle P(\{{\text{H}}\})=0.5} P ( { T } ) = 0.5 {\displaystyle P(\{{\text{T}}\})=0.5} P ( { H , T } ) = 1 {\displaystyle P(\{{\text{H}},{\text{T}}\})=1}

Ejemplo 2

La moneda justa se lanza tres veces. Hay 8 resultados posibles: Ω = {HHH, HHT, HTH, HTT, THH, THT, TTH, TTT} (aquí, por ejemplo, "HTH" significa que la primera vez que la moneda cayó fue cara, la segunda cruz y la última vez volvió a caer cara). La información completa se describe mediante el σ-álgebra de 2 8 = 256 eventos, donde cada uno de los eventos es un subconjunto de Ω. F = 2 Ω {\displaystyle {\mathcal {F}}=2^{\Omega }}

Alice conoce solo el resultado del segundo lanzamiento. Por lo tanto, su información incompleta se describe mediante la partición Ω = A 1A 2 = {HHH, HHT, THH, THT} ⊔ {HTH, HTT, TTH, TTT} , donde ⊔ es la unión disjunta y la σ-álgebra correspondiente . Bryan conoce solo el número total de cruces. Su partición contiene cuatro partes: Ω = B 0B 1B 2B 3 = {HHH} ⊔ {HHT, HTH, THH} ⊔ {TTH, THT, HTT} ⊔ {TTT} ; en consecuencia, su σ-álgebra contiene 2 4 = 16 eventos. F Alice = { { } , A 1 , A 2 , Ω } {\displaystyle {\mathcal {F}}_{\text{Alice}}=\{\{\},A_{1},A_{2},\Omega \}} F Bryan {\displaystyle {\mathcal {F}}_{\text{Bryan}}}

Las dos σ-álgebras son incomparables : ni ni ; ambas son sub-σ-álgebras de 2 Ω . F Alice F Bryan {\displaystyle {\mathcal {F}}_{\text{Alice}}\subseteq {\mathcal {F}}_{\text{Bryan}}} F Bryan F Alice {\displaystyle {\mathcal {F}}_{\text{Bryan}}\subseteq {\mathcal {F}}_{\text{Alice}}}

Ejemplo 3

Si se extraen al azar 100 votantes de entre todos los votantes de California y se les pregunta por quién votarán para gobernador, entonces el conjunto de todas las secuencias de 100 votantes californianos sería el espacio muestral Ω. Suponemos que se utiliza un muestreo sin reemplazo : solo se permiten secuencias de 100 votantes diferentes . Para simplificar, se considera una muestra ordenada, es decir, una secuencia (Alice, Bryan) es diferente de (Bryan, Alice). También damos por sentado que cada votante potencial sabe exactamente su elección futura, es decir, que no elige al azar.

Alice sólo sabe si Arnold Schwarzenegger ha recibido o no al menos 60 votos. Su información incompleta se describe mediante el σ-álgebra que contiene: (1) el conjunto de todas las secuencias en Ω donde al menos 60 personas votan por Schwarzenegger; (2) el conjunto de todas las secuencias donde menos de 60 votan por Schwarzenegger; (3) todo el espacio muestral Ω; y (4) el conjunto vacío ∅. F Alice {\displaystyle {\mathcal {F}}_{\text{Alice}}}

Bryan conoce el número exacto de votantes que votarán por Schwarzenegger. Su información incompleta se describe mediante la partición correspondiente Ω = B 0B 1 ⊔ ⋯ ⊔ B 100 y el σ-álgebra consta de 2 101 eventos. F Bryan {\displaystyle {\mathcal {F}}_{\text{Bryan}}}

En este caso, el σ-álgebra de Alice es un subconjunto del de Bryan: . El σ-álgebra de Bryan es a su vez un subconjunto del σ-álgebra de "información completa" mucho más grande 2 Ω que consta de 2 n ( n −1)⋯( n −99) eventos, donde n es el número de todos los votantes potenciales en California. F Alice F Bryan {\displaystyle {\mathcal {F}}_{\text{Alice}}\subset {\mathcal {F}}_{\text{Bryan}}}

Ejemplos no atómicos

Ejemplo 4

Se elige al azar, de manera uniforme, un número entre 0 y 1. Aquí Ω = [0,1], es la σ-álgebra de los conjuntos de Borel sobre Ω, y P es la medida de Lebesgue sobre [0,1]. F {\displaystyle {\mathcal {F}}}

En este caso, los intervalos abiertos de la forma ( a , b ) , donde 0 < a < b < 1 , podrían tomarse como conjuntos generadores. A cada uno de estos conjuntos se le puede atribuir la probabilidad de P (( a , b )) = ( ba ) , que genera la medida de Lebesgue en [0,1] y el σ-álgebra de Borel en Ω.

Ejemplo 5

Se lanza una moneda al aire sin fin. Aquí se puede tomar Ω = {0,1} , el conjunto de todas las secuencias infinitas de números 0 y 1. Se pueden utilizar conjuntos cilíndricos {( x 1 , x 2 , ...) ∈ Ω : x 1 = a 1 , ..., x n = a n } como conjuntos generadores. Cada uno de estos conjuntos describe un evento en el que los primeros n lanzamientos han dado como resultado una secuencia fija ( a 1 , ..., a n ) , y el resto de la secuencia puede ser arbitraria. A cada uno de estos eventos se le puede dar naturalmente la probabilidad de 2 n .

Estos dos ejemplos no atómicos están estrechamente relacionados: una secuencia ( x 1 , x 2 , ...) ∈ {0,1} conduce al número 2 −1 x 1 + 2 −2 x 2 + ⋯ ∈ [0,1] . Sin embargo, no se trata de una correspondencia uno a uno entre {0,1} y [0,1] : es un isomorfismo módulo cero , que permite tratar los dos espacios de probabilidad como dos formas del mismo espacio de probabilidad. De hecho, todos los espacios de probabilidad no atómicos no patológicos son iguales en este sentido. Son los llamados espacios de probabilidad estándar . Las aplicaciones básicas de los espacios de probabilidad son insensibles a la estandarización. Sin embargo, el condicionamiento no discreto es fácil y natural en los espacios de probabilidad estándar, de lo contrario se vuelve oscuro.

Distribución de probabilidad

Variables aleatorias

Una variable aleatoria X es una función medible X : Ω → S del espacio muestral Ω a otro espacio medible S llamado espacio de estados .

Si AS , la notación Pr( XA ) es una abreviatura comúnmente utilizada para . P ( { ω Ω : X ( ω ) A } ) {\displaystyle P(\{\omega \in \Omega :X(\omega )\in A\})}

Definición de los eventos en términos del espacio muestral

Si Ω es numerable , casi siempre lo definimos como el conjunto potencia de Ω, es decir, que es trivialmente una σ-álgebra y la más grande que podemos crear usando Ω. Por lo tanto, podemos omitirlo y simplemente escribir (Ω,P) para definir el espacio de probabilidad. F {\displaystyle {\mathcal {F}}} F = 2 Ω {\displaystyle {\mathcal {F}}=2^{\Omega }} F {\displaystyle {\mathcal {F}}}

Por otro lado, si Ω es incontable y usamos , nos encontraremos con problemas para definir nuestra medida de probabilidad P porque es demasiado "grande", es decir, a menudo habrá conjuntos a los que será imposible asignar una medida única. En este caso, tenemos que usar una σ-álgebra más pequeña , por ejemplo el álgebra de Borel de Ω, que es la σ-álgebra más pequeña que hace que todos los conjuntos abiertos sean medibles. F = 2 Ω {\displaystyle {\mathcal {F}}=2^{\Omega }} F {\displaystyle {\mathcal {F}}} F {\displaystyle {\mathcal {F}}}

Probabilidad condicional

La definición de Kolmogorov de los espacios de probabilidad da lugar al concepto natural de probabilidad condicional. Cada conjunto A con probabilidad distinta de cero (es decir, P ( A ) > 0 ) define otra medida de probabilidad en el espacio. Esta suele pronunciarse como "probabilidad de B dado A ". P ( B A ) = P ( B A ) P ( A ) {\displaystyle P(B\mid A)={P(B\cap A) \over P(A)}}

Para cualquier evento A tal que P ( A ) > 0 , la función Q definida por Q ( B ) = P ( B  |  A ) para todos los eventos B es en sí misma una medida de probabilidad.

Independencia

Se dice que dos eventos, A y B , son independientes si P ( AB ) = P ( A ) P ( B ) .

Se dice que dos variables aleatorias, X e Y , son independientes si cualquier evento definido en términos de X es independiente de cualquier evento definido en términos de Y . Formalmente, generan σ-álgebras independientes, donde dos σ-álgebras G y H , que son subconjuntos de F , se dice que son independientes si cualquier elemento de G es independiente de cualquier elemento de H .

Exclusividad mutua

Se dice que dos eventos, A y B, son mutuamente excluyentes o disjuntos si la ocurrencia de uno implica la no ocurrencia del otro, es decir, su intersección es vacía. Esta es una condición más fuerte que la probabilidad de que su intersección sea cero.

Si A y B son eventos disjuntos, entonces P ( AB ) = P ( A ) + P ( B ) . Esto se extiende a una secuencia (finita o infinitamente contable) de eventos. Sin embargo, la probabilidad de la unión de un conjunto incontable de eventos no es la suma de sus probabilidades. Por ejemplo, si Z es una variable aleatoria distribuida normalmente , entonces P ( Z = x ) es 0 para cualquier x , pero P ( ZR ) = 1 .

El evento AB se denomina " A y B ", y el evento AB , " A o B ".

Véase también

Referencias

  1. ^ Loève, Michel. Teoría de la probabilidad, vol. 1. Nueva York: D. Van Nostrand Company, 1955.
  2. ^ Stroock, DW (1999). Teoría de la probabilidad: una visión analítica. Cambridge University Press.

Bibliografía

El primer tratado importante que combina el cálculo con la teoría de la probabilidad, originalmente en francés: Théorie Analytique des Probabilités .
El fundamento teórico de la medida moderno de la teoría de la probabilidad; la versión original en alemán ( Grundbegriffe der Wahrscheinlichkeitrechnung ) apareció en 1933.
Un enfoque empirista y bayesiano de los fundamentos de la teoría de la probabilidad.
  • Edward Nelson (1987) Teoría de la probabilidad radicalmente elemental
Fundamentos de la teoría de la probabilidad basados ​​en el análisis no estándar. Descargable. http://www.math.princeton.edu/~nelson/books.html
  • Patrick Billingsley : Probabilidad y medida , John Wiley and Sons, Nueva York, Toronto, Londres, 1979.
  • Henk Tijms (2004) Entendiendo la probabilidad
Una introducción animada a la teoría de la probabilidad para principiantes, Cambridge Univ. Press.
  • David Williams (1991) Probabilidad con martingalas
Una introducción de pregrado a la probabilidad teórica de la medida, Cambridge Univ. Press.
  • Gut, Allan (2005). Probabilidad: un curso de posgrado . Springer. ISBN 0-387-22833-0.
  • Sazonov, VV (2001) [1994], "Espacio de probabilidad", Enciclopedia de Matemáticas , EMS Press
  • Animación que muestra el espacio de probabilidad de los dados
  • Laboratorios virtuales de probabilidad y estadística (autor principal Kyle Siegrist), especialmente, Espacios de probabilidad
  • Ciudadanía
  • Espacio de probabilidad completo
  • Weisstein, Eric W. "Espacio de probabilidad". MathWorld .
Retrieved from "https://en.wikipedia.org/w/index.php?title=Probability_space&oldid=1255343183"