En teoría de probabilidad y estadística , la distribución de Bernoulli , llamada así por el matemático suizo Jacob Bernoulli , [1] es la distribución de probabilidad discreta de una variable aleatoria que toma el valor 1 con probabilidad y el valor 0 con probabilidad . De manera menos formal, se puede considerar como un modelo para el conjunto de resultados posibles de cualquier experimento individual que haga una pregunta de sí o no . Tales preguntas conducen a resultados que tienen un valor booleano : un solo bit cuyo valor es éxito/ sí / verdadero / uno con probabilidad p y fracaso/no/ falso / cero con probabilidad q . Se puede utilizar para representar un lanzamiento de moneda (posiblemente sesgado) donde 1 y 0 representarían "cara" y "cruz", respectivamente, y p sería la probabilidad de que la moneda caiga en cara (o viceversa, donde 1 representaría cruz y p sería la probabilidad de cruz). En particular, las monedas injustas tendrían
La distribución de Bernoulli es un caso especial de la distribución binomial en el que se realiza un único ensayo (por lo que n sería 1 para dicha distribución binomial). También es un caso especial de la distribución de dos puntos , para la que los resultados posibles no necesitan ser 0 y 1. [2]
Propiedades
Si es una variable aleatoria con distribución de Bernoulli, entonces:
La distribución de Bernoulli es un caso especial de la distribución binomial con [4]
La curtosis tiende al infinito para valores altos y bajos de pero las distribuciones de dos puntos, incluida la distribución de Bernoulli, tienen un exceso de curtosis menor , es decir, −2, que cualquier otra distribución de probabilidad.
Con este resultado es fácil demostrar que, para cualquier distribución de Bernoulli, su varianza tendrá un valor dentro de .
Oblicuidad
La asimetría es . Cuando tomamos la variable aleatoria distribuida Bernoulli estandarizada, encontramos que esta variable aleatoria alcanza con probabilidad y alcanza con probabilidad . Por lo tanto, obtenemos
Momentos superiores y cumulantes
Los momentos crudos son todos iguales debido al hecho de que y .
El momento central del orden viene dado por
Los primeros seis momentos centrales son
Los momentos centrales superiores se pueden expresar de forma más compacta en términos de y
Los primeros seis cumulantes son
Entropía e información de Fisher
Entropía
La entropía es una medida de incertidumbre o aleatoriedad en una distribución de probabilidad. Para una variable aleatoria de Bernoulli con probabilidad de éxito y probabilidad de fracaso , la entropía se define como:
La entropía se maximiza cuando , lo que indica el nivel más alto de incertidumbre cuando ambos resultados son igualmente probables. La entropía es cero cuando o , donde un resultado es seguro.
Información de Fisher
La información de Fisher mide la cantidad de información que una variable aleatoria observable contiene sobre un parámetro desconocido del que depende la probabilidad de que ocurra. Para la distribución de Bernoulli, la información de Fisher con respecto al parámetro viene dada por:
Prueba:
La función de verosimilitud para una variable aleatoria de Bernoulli es:
Esto representa la probabilidad de observar dado el parámetro .
La función de log-verosimilitud es:
La función de puntuación (la primera derivada de la verosimilitud logarítmica con respecto a es:
La segunda derivada de la función de log-verosimilitud es:
La información de Fisher se calcula como el valor esperado negativo de la segunda derivada de la verosimilitud logarítmica:
Se maximiza cuando , reflejando la máxima incertidumbre y por tanto la máxima información sobre el parámetro .
^ Uspensky, James Victor (1937). Introducción a la probabilidad matemática . Nueva York: McGraw-Hill. pág. 45. OCLC 996937.
^ Dekking, Frederik; Kraaikamp, Cornelis; Lopuhaä, Hendrik; Meester, Ludolf (9 de octubre de 2010). Una introducción moderna a la probabilidad y la estadística (1 ed.). Springer Londres. págs. 43–48. ISBN9781849969529.