Distribución uniforme continua

Distribución uniforme en un intervalo
Uniforme continuo
Función de densidad de probabilidad
PDF de la distribución de probabilidad uniforme utilizando la convención máxima en los puntos de transición.
Utilizando la convención máxima
Función de distribución acumulativa
CDF de la distribución de probabilidad uniforme.
Notación [ a , b ] {\displaystyle {\mathcal {U}}_{[a,b]}}
Parámetros < a < b < {\displaystyle -\infty <a<b<\infty}
Apoyo [ a , b ] {\estilo de visualización [a,b]}
PDF { 1 b a para  incógnita [ a , b ] 0 de lo contrario {\displaystyle {\begin{cases}{\frac {1}{ba}}&{\text{para }}x\en [a,b]\\0&{\text{en caso contrario}}\end{cases}}}
CDF { 0 para  incógnita < a incógnita a b a para  incógnita [ a , b ] 1 para  incógnita > b {\displaystyle {\begin{cases}0&{\text{para }}x<a\\{\frac {xa}{ba}}&{\text{para }}x\in [a,b]\\1&{\text{para }}x>b\end{cases}}}
Significar 1 2 ( a + b ) {\displaystyle {\tfrac {1}{2}}(a+b)}
Mediana 1 2 ( a + b ) {\displaystyle {\tfrac {1}{2}}(a+b)}
Modo cualquier valor en  ( a , b ) {\displaystyle {\text{cualquier valor en }}(a,b)}
Diferencia 1 12 ( b a ) 2 {\displaystyle {\tfrac {1}{12}}(ba)^{2}}
ENOJADO 1 4 ( b a ) {\displaystyle {\tfrac {1}{4}}(ba)}
Oblicuidad 0 {\estilo de visualización 0}
Exceso de curtosis 6 5 {\displaystyle -{\frac {6}{5}}}
Entropía registro ( b a ) {\displaystyle \log(ba)}
MGF { mi a b mi a a a ( b a ) para  a 0 1 para  a = 0 {\displaystyle {\begin{casos}{\frac {\mathrm {e} ^{tb}-\mathrm {e} ^{ta}}{t(ba)}}&{\text{para }}t\ neq 0\\1&{\text{para }}t=0\end{casos}}}
CF { mi i a b mi i a a i a ( b a ) para  a 0 1 para  a = 0 {\displaystyle {\begin{cases}{\frac {\mathrm {e} ^{\mathrm {i} tb}-\mathrm {e} ^{\mathrm {i} ta}}{\mathrm {i} t(b-a)}}&{\text{for }}t\neq 0\\1&{\text{for }}t=0\end{cases}}}

En teoría de probabilidad y estadística , las distribuciones uniformes continuas o distribuciones rectangulares son una familia de distribuciones de probabilidad simétricas . Dicha distribución describe un experimento en el que hay un resultado arbitrario que se encuentra entre ciertos límites. [1] Los límites están definidos por los parámetros y que son los valores mínimo y máximo. El intervalo puede ser cerrado (es decir, ) o abierto (es decir, ). [2] Por lo tanto, la distribución a menudo se abrevia donde significa distribución uniforme. [1] La diferencia entre los límites define la longitud del intervalo; todos los intervalos de la misma longitud en el soporte de la distribución son igualmente probables. Es la distribución de probabilidad de entropía máxima para una variable aleatoria sin otra restricción que la de que está contenida en el soporte de la distribución. [3] a {\displaystyle a} b , {\displaystyle b,} [ a , b ] {\displaystyle [a,b]} ( a , b ) {\displaystyle (a,b)} U ( a , b ) , {\displaystyle U(a,b),} U {\displaystyle U} X {\displaystyle X}

Definiciones

Función de densidad de probabilidad

La función de densidad de probabilidad de la distribución uniforme continua es

f ( x ) = { 1 b a for  a x b , 0 for  x < a    or    x > b . {\displaystyle f(x)={\begin{cases}{\frac {1}{b-a}}&{\text{for }}a\leq x\leq b,\\[8pt]0&{\text{for }}x<a\ {\text{ or }}\ x>b.\end{cases}}}

Los valores de en los dos límites y normalmente no son importantes, porque no alteran el valor de en ningún intervalo ni de ni de ningún momento superior. A veces se eligen como cero, y a veces como Esto último es apropiado en el contexto de la estimación por el método de máxima verosimilitud . En el contexto del análisis de Fourier , se puede tomar el valor de o como porque entonces la transformada inversa de muchas transformadas integrales de esta función uniforme devolverá la función misma, en lugar de una función que es igual " casi en todas partes ", es decir, excepto en un conjunto de puntos con medida cero . Además, es coherente con la función de signo , que no tiene tal ambigüedad. f ( x ) {\displaystyle f(x)} a {\displaystyle a} b {\displaystyle b} c d f ( x ) d x {\textstyle \int _{c}^{d}f(x)dx} [ c , d ] , {\displaystyle [c,d],} a b x f ( x ) d x , {\textstyle \int _{a}^{b}xf(x)dx,} 1 b a . {\displaystyle {\tfrac {1}{b-a}}.} f ( a ) {\displaystyle f(a)} f ( b ) {\displaystyle f(b)} 1 2 ( b a ) , {\displaystyle {\tfrac {1}{2(b-a)}},}

Toda función de densidad de probabilidad se integra a , por lo que la función de densidad de probabilidad de la distribución uniforme continua se representa gráficamente como un rectángulo donde es la longitud de la base y es la altura. A medida que aumenta la longitud de la base, la altura (la densidad en cualquier valor particular dentro de los límites de la distribución) disminuye. [4] 1 , {\displaystyle 1,} b a {\displaystyle b-a} 1 b a {\displaystyle {\tfrac {1}{b-a}}}

En términos de media y varianza, la función de densidad de probabilidad de la distribución uniforme continua es μ {\displaystyle \mu } σ 2 , {\displaystyle \sigma ^{2},}

f ( x ) = { 1 2 σ 3 for  σ 3 x μ σ 3 , 0 otherwise . {\displaystyle f(x)={\begin{cases}{\frac {1}{2\sigma {\sqrt {3}}}}&{\text{for }}-\sigma {\sqrt {3}}\leq x-\mu \leq \sigma {\sqrt {3}},\\0&{\text{otherwise}}.\end{cases}}}

Función de distribución acumulativa

La función de distribución acumulativa de la distribución uniforme continua es:

F ( x ) = { 0 for  x < a , x a b a for  a x b , 1 for  x > b . {\displaystyle F(x)={\begin{cases}0&{\text{for }}x<a,\\[8pt]{\frac {x-a}{b-a}}&{\text{for }}a\leq x\leq b,\\[8pt]1&{\text{for }}x>b.\end{cases}}}

Su inversa es:

F 1 ( p ) = a + p ( b a )  for  0 < p < 1. {\displaystyle F^{-1}(p)=a+p(b-a)\quad {\text{ for }}0<p<1.}

En términos de media y varianza, la función de distribución acumulativa de la distribución uniforme continua es: μ {\displaystyle \mu } σ 2 , {\displaystyle \sigma ^{2},}

F ( x ) = { 0 for  x μ < σ 3 , 1 2 ( x μ σ 3 + 1 ) for  σ 3 x μ < σ 3 , 1 for  x μ σ 3 ; {\displaystyle F(x)={\begin{cases}0&{\text{for }}x-\mu <-\sigma {\sqrt {3}},\\{\frac {1}{2}}\left({\frac {x-\mu }{\sigma {\sqrt {3}}}}+1\right)&{\text{for }}-\sigma {\sqrt {3}}\leq x-\mu <\sigma {\sqrt {3}},\\1&{\text{for }}x-\mu \geq \sigma {\sqrt {3}};\end{cases}}}

Su inversa es:

F 1 ( p ) = σ 3 ( 2 p 1 ) + μ  for  0 p 1. {\displaystyle F^{-1}(p)=\sigma {\sqrt {3}}(2p-1)+\mu \quad {\text{ for }}0\leq p\leq 1.}

Ejemplo 1.Utilizando la función de distribución uniforme continua

Para una variable aleatoria encuentre X U ( 0 , 23 ) , {\displaystyle X\sim U(0,23),} P ( 2 < X < 18 ) : {\displaystyle P(2<X<18):}

P ( 2 < X < 18 ) = ( 18 2 ) 1 23 0 = 16 23 . {\displaystyle P(2<X<18)=(18-2)\cdot {\frac {1}{23-0}}={\frac {16}{23}}.}

En una representación gráfica de la función de distribución uniforme continua , el área bajo la curva dentro de los límites especificados, que muestra la probabilidad, es un rectángulo. Para el ejemplo específico anterior, la base sería y la altura sería [5] [ f ( x )  vs  x ] , {\displaystyle [f(x){\text{ vs }}x],} 16 , {\displaystyle 16,} 1 23 . {\displaystyle {\tfrac {1}{23}}.}

Ejemplo 2.Utilizando la función de distribución uniforme continua (condicional)

Para una variable aleatoria encuentre X U ( 0 , 23 ) , {\displaystyle X\sim U(0,23),} P ( X > 12   |   X > 8 ) : {\displaystyle P(X>12\ |\ X>8):}

P ( X > 12   |   X > 8 ) = ( 23 12 ) 1 23 8 = 11 15 . {\displaystyle P(X>12\ |\ X>8)=(23-12)\cdot {\frac {1}{23-8}}={\frac {11}{15}}.}

El ejemplo anterior es un caso de probabilidad condicional para la distribución uniforme continua: dado que ⁠ ⁠ X > 8 {\displaystyle X>8} es verdadero, ¿cuál es la probabilidad de que ⁠ ⁠ X > 12 ? {\displaystyle X>12?} La probabilidad condicional cambie el espacio muestral, por lo que se debe calcular una nueva longitud de intervalo ⁠ ⁠ b a {\displaystyle b-a'} , donde y [5] La representación gráfica seguiría el Ejemplo 1, donde el área bajo la curva dentro de los límites especificados muestra la probabilidad; la base del rectángulo sería y la altura sería [5] b = 23 {\displaystyle b=23} a = 8. {\displaystyle a'=8.} 11 , {\displaystyle 11,} 1 15 . {\displaystyle {\tfrac {1}{15}}.}

Funciones generadoras

Función generadora de momentos

La función generadora de momentos de la distribución uniforme continua es: [6]

M X = E ( e t X ) = a b e t x d x b a = e t b e t a t ( b a ) = B t A t t ( b a ) , {\displaystyle M_{X}=\mathrm {E} (\mathrm {e} ^{tX})=\int _{a}^{b}\mathrm {e} ^{tx}{\frac {dx}{b-a}}={\frac {\mathrm {e} ^{tb}-\mathrm {e} ^{ta}}{t(b-a)}}={\frac {B^{t}-A^{t}}{t(b-a)}},}

a partir de los cuales podemos calcular los momentos brutos m k : {\displaystyle m_{k}:}

m 1 = a + b 2 , {\displaystyle m_{1}={\frac {a+b}{2}},}
m 2 = a 2 + a b + b 2 3 , {\displaystyle m_{2}={\frac {a^{2}+ab+b^{2}}{3}},}
m k = i = 0 k a i b k i k + 1 . {\displaystyle m_{k}={\frac {\sum _{i=0}^{k}a^{i}b^{k-i}}{k+1}}.}

Para una variable aleatoria que sigue una distribución uniforme continua, el valor esperado es y la varianza es m 1 = a + b 2 , {\displaystyle m_{1}={\tfrac {a+b}{2}},} m 2 m 1 2 = ( b a ) 2 12 . {\displaystyle m_{2}-m_{1}^{2}={\tfrac {(b-a)^{2}}{12}}.}

Para el caso especial, la función de densidad de probabilidad de la distribución uniforme continua es: a = b , {\displaystyle a=-b,}

f ( x ) = { 1 2 b for  b x b , 0 otherwise ; {\displaystyle f(x)={\begin{cases}{\frac {1}{2b}}&{\text{for }}-b\leq x\leq b,\\[8pt]0&{\text{otherwise}};\end{cases}}}

La función generadora de momentos se reduce a la forma simple:

M X = sinh b t b t . {\displaystyle M_{X}={\frac {\sinh bt}{bt}}.}

Función generadora de cumulantes

Para el -ésimo cumulante n 2 , {\displaystyle n\geq 2,} de la distribución uniforme continua en el intervalo es donde es el -ésimo número de Bernoulli . [ 7 ] n {\displaystyle n} [ 1 2 , 1 2 ] {\displaystyle [-{\tfrac {1}{2}},{\tfrac {1}{2}}]} B n n , {\displaystyle {\tfrac {B_{n}}{n}},} B n {\displaystyle B_{n}} n {\displaystyle n}

Distribución uniforme estándar

La distribución uniforme continua con parámetros e ie se denomina distribución uniforme estándar . a = 0 {\displaystyle a=0} b = 1 , {\displaystyle b=1,} U ( 0 , 1 ) , {\displaystyle U(0,1),}

Una propiedad interesante de la distribución uniforme estándar es que si tiene una distribución uniforme estándar, entonces también la tiene Esta propiedad se puede utilizar para generar variables antitéticas , entre otras cosas. En otras palabras, esta propiedad se conoce como el método de inversión donde la distribución uniforme estándar continua se puede utilizar para generar números aleatorios para cualquier otra distribución continua. [4] Si es un número aleatorio uniforme con distribución uniforme estándar, es decir con entonces genera un número aleatorio de cualquier distribución continua con la función de distribución acumulativa especificada [4] u 1 {\displaystyle u_{1}} 1 u 1 . {\displaystyle 1-u_{1}.} u 1 {\displaystyle u_{1}} U ( 0 , 1 ) , {\displaystyle U(0,1),} x = F 1 ( u 1 ) {\displaystyle x=F^{-1}(u_{1})} x {\displaystyle x} F . {\displaystyle F.}

Relación con otras funciones

Siempre que se sigan las mismas convenciones en los puntos de transición, la función de densidad de probabilidad de la distribución uniforme continua también puede expresarse en términos de la función de escalón de Heaviside como:

f ( x ) = H ( x a ) H ( x b ) b a , {\displaystyle f(x)={\frac {\operatorname {H} (x-a)-\operatorname {H} (x-b)}{b-a}},}

o en términos de la función rectángulo como:

f ( x ) = 1 b a   rect ( x a + b 2 b a ) . {\displaystyle f(x)={\frac {1}{b-a}}\ \operatorname {rect} \left({\frac {x-{\frac {a+b}{2}}}{b-a}}\right).}

No existe ninguna ambigüedad en el punto de transición de la función de signo . Utilizando la convención de máximo medio en los puntos de transición, la distribución uniforme continua puede expresarse en términos de la función de signo como:

f ( x ) = sgn ( x a ) sgn ( x b ) 2 ( b a ) . {\displaystyle f(x)={\frac {\operatorname {sgn} {(x-a)}-\operatorname {sgn} {(x-b)}}{2(b-a)}}.}

Propiedades

Momentos

La media (primer momento bruto ) de la distribución uniforme continua es:

E ( X ) = a b x d x b a = b 2 a 2 2 ( b a ) = b + a 2 . {\displaystyle E(X)=\int _{a}^{b}x{\frac {dx}{b-a}}={\frac {b^{2}-a^{2}}{2(b-a)}}={\frac {b+a}{2}}.}

El segundo momento crudo de esta distribución es:

E ( X 2 ) = a b x 2 d x b a = b 3 a 3 3 ( b a ) . {\displaystyle E(X^{2})=\int _{a}^{b}x^{2}{\frac {dx}{b-a}}={\frac {b^{3}-a^{3}}{3(b-a)}}.}

En general, el momento bruto -ésimo de esta distribución es: n {\displaystyle n}

E ( X n ) = a b x n d x b a = b n + 1 a n + 1 ( n + 1 ) ( b a ) . {\displaystyle E(X^{n})=\int _{a}^{b}x^{n}{\frac {dx}{b-a}}={\frac {b^{n+1}-a^{n+1}}{(n+1)(b-a)}}.}

La varianza (segundo momento central ) de esta distribución es:

V ( X ) = E ( ( X E ( X ) ) 2 ) = a b ( x a + b 2 ) 2 d x b a = ( b a ) 2 12 . {\displaystyle V(X)=E\left({\big (}X-E(X){\big )}^{2}\right)=\int _{a}^{b}\left(x-{\frac {a+b}{2}}\right)^{2}{\frac {dx}{b-a}}={\frac {(b-a)^{2}}{12}}.}

Estadísticas de pedidos

Sea una muestra iid de y sea la estadística de orden -ésimo de esta muestra. X 1 , . . . , X n {\displaystyle X_{1},...,X_{n}} U ( 0 , 1 ) , {\displaystyle U(0,1),} X ( k ) {\displaystyle X_{(k)}} k {\displaystyle k}

X ( k ) {\displaystyle X_{(k)}} tiene una distribución beta , con parámetros y k {\displaystyle k} n k + 1. {\displaystyle n-k+1.}

El valor esperado es:

E ( X ( k ) ) = k n + 1 . {\displaystyle \operatorname {E} \left(X_{(k)}\right)={k \over n+1}.}

Este hecho es útil al realizar gráficos Q–Q .

La varianza es:

V ( X ( k ) ) = k ( n k + 1 ) ( n + 1 ) 2 ( n + 2 ) . {\displaystyle \operatorname {V} \left(X_{(k)}\right)={k(n-k+1) \over (n+1)^{2}(n+2)}.}

Uniformidad

La probabilidad de que una variable aleatoria distribuida de manera uniforme y continua caiga dentro de cualquier intervalo de longitud fija es independiente de la ubicación del intervalo en sí (pero depende del tamaño del intervalo ), siempre que el intervalo esté contenido en el soporte de la distribución. ( ) {\displaystyle (\ell )}

De hecho, si y si es un subintervalo de con fijo entonces: X U ( a , b ) {\displaystyle X\sim U(a,b)} [ x , x + ] {\displaystyle [x,x+\ell ]} [ a , b ] {\displaystyle [a,b]} > 0 , {\displaystyle \ell >0,}

P ( X [ x , x + ] ) = x x + d y b a = b a , {\displaystyle P{\big (}X\in [x,x+\ell ]{\big )}=\int _{x}^{x+\ell }{\frac {dy}{b-a}}={\frac {\ell }{b-a}},}

lo cual es independiente de Este hecho motiva el nombre de la distribución. x . {\displaystyle x.}

Distribución uniforme en conjuntos más generales

La distribución uniforme puede generalizarse a conjuntos más generales que los intervalos.

Formalmente, sea un conjunto de Borel de medida de Lebesgue finita y positiva, es decir, La distribución uniforme en se puede especificar definiendo la función de densidad de probabilidad como cero fuera y constantemente igual a en S {\displaystyle S} λ ( S ) , {\displaystyle \lambda (S),} 0 < λ ( S ) < + . {\displaystyle 0<\lambda (S)<+\infty .} S {\displaystyle S} S {\displaystyle S} 1 λ ( S ) {\displaystyle {\tfrac {1}{\lambda (S)}}} S . {\displaystyle S.}

Un caso especial interesante es cuando el conjunto S es un símplex . Es posible obtener una distribución uniforme en el símplex estándar de n vértices de la siguiente manera. [8] : Teoría 4.1.  Tome n variables aleatorias independientes con la misma distribución exponencial ; denotelas por X 1 ,...,X n ; y sea Y i  := X i / (suma i X i ). Entonces, el vector Y 1 ,...,Y n está distribuido uniformemente en el símplex.

  • Si X tiene una distribución uniforme estándar, entonces, mediante el método de muestreo por transformada inversa , Y = − λ −1 ln( X ) tiene una distribución exponencial con parámetro (de tasa) λ .
  • Si X tiene una distribución uniforme estándar, entonces Y = X n tiene una distribución beta con parámetros (1/ n ,1). Por lo tanto,
  • La distribución de Irwin-Hall es la suma de n distribuciones i.id U (0,1).
  • La distribución de Bates es el promedio de n distribuciones i.id U (0,1).
  • La distribución uniforme estándar es un caso especial de la distribución beta , con parámetros (1,1).
  • La suma de dos distribuciones uniformes independientes U 1 (a,b)+ U 2 (c,d) produce una distribución trapezoidal , simétrica respecto de su media, sobre el soporte [a+c,b+d]. La meseta tiene un ancho igual a la diferencia absoluta del ancho de U 1 y U 2 . El ancho de las partes inclinadas corresponde al ancho de la distribución uniforme más estrecha.
    • Si las distribuciones uniformes tienen el mismo ancho w, el resultado es una distribución triangular , simétrica respecto de su media, sobre el soporte [a+c,a+c+2w].
    • La suma de dos distribuciones independientes, uniformes e igualmente distribuidas U 1 (a,b)+ U 2 (a,b) produce una distribución triangular simétrica en el soporte [2a,2b].
  • La distancia entre dos variables aleatorias uniformes iid | U 1 (a,b)- U 2 (a,b)| también tiene una distribución triangular , aunque no simétrica, en el soporte [0,ba].

Inferencia estadística

Estimación de parámetros

Estimación del máximo

Estimador imparcial de varianza mínima

Dada una distribución uniforme con valores desconocidos, el estimador insesgado de varianza mínima (UMVUE) para el máximo es: [ 0 , b ] {\displaystyle [0,b]} b , {\displaystyle b,}

b ^ UMVU = k + 1 k m = m + m k , {\displaystyle {\hat {b}}_{\text{UMVU}}={\frac {k+1}{k}}m=m+{\frac {m}{k}},}

donde es el máximo de la muestra y es el tamaño de la muestra , muestreo sin reemplazo (aunque esta distinción casi seguramente no hace ninguna diferencia para una distribución continua). Esto se deduce por las mismas razones que la estimación para la distribución discreta , y puede verse como un caso muy simple de estimación de espaciado máximo . Este problema se conoce comúnmente como el problema del tanque alemán , debido a la aplicación de la estimación máxima a las estimaciones de la producción de tanques alemanes durante la Segunda Guerra Mundial . m {\displaystyle m} k {\displaystyle k}

Método de estimación de momentos

El método del estimador de momentos es:

b ^ M M = 2 X ¯ , {\displaystyle {\hat {b}}_{MM}=2{\bar {X}},}

¿Dónde está la media de la muestra? X ¯ {\displaystyle {\bar {X}}}

Estimador de máxima verosimilitud

El estimador de máxima verosimilitud es:

b ^ M L = m , {\displaystyle {\hat {b}}_{ML}=m,}

donde es el máximo de la muestra , también denotado como la estadística de orden máximo de la muestra. m {\displaystyle m} m = X ( n ) , {\displaystyle m=X_{(n)},}

Estimación del mínimo

Dada una distribución uniforme en con a desconocida , el estimador de máxima verosimilitud para a es: [ a , b ] {\displaystyle [a,b]}

a ^ M L = min { X 1 , , X n } {\displaystyle {\hat {a}}_{ML}=\min\{X_{1},\dots ,X_{n}\}} ,

el mínimo de la muestra . [9]

Estimación del punto medio

El punto medio de la distribución es tanto la media como la mediana de la distribución uniforme. Aunque tanto la media muestral como la mediana muestral son estimadores insesgados del punto medio, ninguno es tan eficiente como el rango medio muestral , es decir, la media aritmética del máximo y el mínimo muestral, que es el estimador UMVU del punto medio (y también la estimación de máxima verosimilitud ). a + b 2 , {\displaystyle {\tfrac {a+b}{2}},}

Intervalo de confianza

Para el máximo

Sea una muestra de donde es el valor máximo en la población. Entonces tiene la densidad de Lebesgue-Borel [10] X 1 , X 2 , X 3 , . . . , X n {\displaystyle X_{1},X_{2},X_{3},...,X_{n}} U [ 0 , L ] , {\displaystyle U_{[0,L]},} L {\displaystyle L} X ( n ) = max ( X 1 , X 2 , X 3 , . . . , X n ) {\displaystyle X_{(n)}=\max(X_{1},X_{2},X_{3},...,X_{n})} f = d Pr X ( n ) d λ : {\displaystyle f={\frac {d\Pr _{X_{(n)}}}{d\lambda }}:}

f ( t ) = n 1 L ( t L ) n 1 = n t n 1 L n 1 1 [ 0 , L ] ( t ) , {\displaystyle f(t)=n{\frac {1}{L}}\left({\frac {t}{L}}\right)^{n-1}\!=n{\frac {t^{n-1}}{L^{n}}}1\!\!1_{[0,L]}(t),} ¿Dónde está la función indicadora de 1 1 [ 0 , L ] {\displaystyle 1\!\!1_{[0,L]}} [ 0 , L ] . {\displaystyle [0,L].}

El intervalo de confianza dado anteriormente es matemáticamente incorrecto, ya que

Pr ( [ θ ^ , θ ^ + ε ] θ ) 1 α {\displaystyle \Pr {\big (}[{\hat {\theta }},{\hat {\theta }}+\varepsilon ]\ni \theta {\big )}\geq 1-\alpha }

no se puede resolver sin el conocimiento de . Sin embargo, se puede resolver ε {\displaystyle \varepsilon } θ {\displaystyle \theta }

Pr ( [ θ ^ , θ ^ ( 1 + ε ) ] θ ) 1 α {\displaystyle \Pr {\big (}[{\hat {\theta }},{\hat {\theta }}(1+\varepsilon )]\ni \theta {\big )}\geq 1-\alpha } Para cualquier cosa desconocida pero válida. ε ( 1 α ) 1 / n 1 {\displaystyle \varepsilon \geq (1-\alpha )^{-1/n}-1} θ ; {\displaystyle \theta ;}

Luego se elige el intervalo más pequeño posible que cumpla la condición anterior. Nótese que la longitud del intervalo depende de la variable aleatoria. ε {\displaystyle \varepsilon } θ ^ . {\displaystyle {\hat {\theta }}.}

Ocurrencia y aplicaciones

Las probabilidades de una función de distribución uniforme son fáciles de calcular debido a la simplicidad de la forma de la función. [2] Por lo tanto, existen varias aplicaciones para las que se puede utilizar esta distribución, como se muestra a continuación: situaciones de prueba de hipótesis, casos de muestreo aleatorio, finanzas, etc. Además, generalmente, los experimentos de origen físico siguen una distribución uniforme (por ejemplo, emisión de partículas radiactivas ). [1] Sin embargo, es importante señalar que en cualquier aplicación, existe el supuesto inmutable de que la probabilidad de caer en un intervalo de longitud fija es constante. [2]

Ejemplo económico de distribución uniforme

En el campo de la economía, por lo general la demanda y la reposición pueden no seguir la distribución normal esperada. Como resultado, se utilizan otros modelos de distribución para predecir mejor las probabilidades y tendencias, como el proceso de Bernoulli . [11] Pero según Wanke (2008), en el caso particular de investigar el tiempo de entrega para la gestión de inventario al comienzo del ciclo de vida cuando se analiza un producto completamente nuevo, la distribución uniforme resulta más útil. [11] En esta situación, otra distribución puede no ser viable ya que no hay datos existentes sobre el nuevo producto o que el historial de demanda no está disponible, por lo que realmente no hay una distribución apropiada o conocida. [11] La distribución uniforme sería ideal en esta situación ya que la variable aleatoria del tiempo de entrega (relacionada con la demanda) es desconocida para el nuevo producto, pero es probable que los resultados oscilen entre un rango plausible de dos valores. [11] El tiempo de entrega representaría así la variable aleatoria. A partir del modelo de distribución uniforme, se pudieron calcular otros factores relacionados con el tiempo de entrega, como el nivel de servicio del ciclo y la escasez por ciclo. También se observó que también se utilizó la distribución uniforme debido a la simplicidad de los cálculos. [11]

Muestreo a partir de una distribución arbitraria

La distribución uniforme es útil para el muestreo a partir de distribuciones arbitrarias. Un método general es el método de muestreo por transformada inversa, que utiliza la función de distribución acumulativa (CDF) de la variable aleatoria objetivo. Este método es muy útil en el trabajo teórico. Dado que las simulaciones que utilizan este método requieren invertir la CDF de la variable objetivo, se han ideado métodos alternativos para los casos en los que la CDF no se conoce en forma cerrada. Uno de estos métodos es el muestreo por rechazo .

La distribución normal es un ejemplo importante en el que el método de transformación inversa no es eficiente. Sin embargo, existe un método exacto, la transformación de Box-Muller , que utiliza la transformación inversa para convertir dos variables aleatorias uniformes independientes en dos variables aleatorias independientes distribuidas normalmente .

Error de cuantificación

En la conversión de analógico a digital, se produce un error de cuantificación. Este error se debe a un redondeo o a un truncamiento. Cuando la señal original es mucho mayor que un bit menos significativo (LSB) , el error de cuantificación no está significativamente correlacionado con la señal y tiene una distribución aproximadamente uniforme. Por lo tanto, el error RMS se deriva de la varianza de esta distribución.

Generación de variables aleatorias

Existen muchas aplicaciones en las que resulta útil realizar experimentos de simulación. Muchos lenguajes de programación cuentan con implementaciones para generar números pseudoaleatorios que se distribuyen de manera efectiva de acuerdo con la distribución uniforme estándar.

Por otro lado, los números distribuidos uniformemente se utilizan a menudo como base para la generación de variables aleatorias no uniformes .

Si es un valor muestreado de la distribución uniforme estándar, entonces el valor sigue la distribución uniforme parametrizada por y como se describió anteriormente. u {\displaystyle u} a + ( b a ) u {\displaystyle a+(b-a)u} a {\displaystyle a} b , {\displaystyle b,}

Historia

Si bien los orígenes históricos de la concepción de la distribución uniforme no son concluyentes, se especula que el término "uniforme" surgió del concepto de equiprobabilidad en los juegos de dados (nótese que los juegos de dados tendrían un espacio muestral uniforme discreto y no continuo). La equiprobabilidad fue mencionada en el Liber de Ludo Aleae de Gerolamo Cardano , un manual escrito en el siglo XVI y detallado sobre el cálculo de probabilidad avanzado en relación con los dados. [12]

Véase también

Referencias

  1. ^ abc Dekking, Michel (2005). Una introducción moderna a la probabilidad y la estadística: entender por qué y cómo . Londres, Reino Unido: Springer. pp. 60–61. ISBN 978-1-85233-896-1.
  2. ^ abc Walpole, Ronald; et al. (2012). Probabilidad y estadística para ingenieros y científicos . Boston, EE. UU.: Prentice Hall. págs. 171–172. ISBN 978-0-321-62911-1.
  3. ^ Park, Sung Y.; Bera, Anil K. (2009). "Modelo de heterocedasticidad condicional autorregresiva de máxima entropía". Journal of Econometrics . 150 (2): 219–230. CiteSeerX 10.1.1.511.9750 . doi :10.1016/j.jeconom.2008.12.014. 
  4. ^ abc «Distribución uniforme (continua)». MathWorks . 2019 . Consultado el 22 de noviembre de 2019 .
  5. ^ abc Illowsky, Barbara; et al. (2013). Introducción a la estadística. Rice University, Houston, Texas, EE. UU.: OpenStax College. págs. 296–304. ISBN 978-1-938168-20-8.
  6. ^ Casella y Berger 2001, pág. 626
  7. ^ Wichura, Michael J. (11 de enero de 2001). «Acumulantes» (PDF) . Folletos de estadísticas 304 . Universidad de Chicago.
  8. ^ Generación de variables aleatorias no uniformes. doi :10.1007/978-1-4613-8643-8.
  9. ^ . Dado que tenemos que el factor se maximiza por el mayor posible a , que está limitado en por . Por lo tanto, es el máximo de . L n ( a , b ) = i = 1 n f ( X i ) = 1 ( b a ) n 1 [ a , b ] ( X 1 , , X n ) {\displaystyle L_{n}(a,b)=\prod _{i=1}^{n}f(X_{i})={\frac {1}{(b-a)^{n}}}\mathbf {1} _{[a,b]}(X_{1},\dots ,X_{n})}
    = 1 ( b a ) n 1 { a min { X 1 , , X n } } 1 { max { X 1 , , X n } b } {\displaystyle ={\frac {1}{(b-a)^{n}}}\mathbf {1} _{\{a\leq \min\{X_{1},\dots ,X_{n}\}\}}\mathbf {1} _{\{\max\{X_{1},\dots ,X_{n}\}\leq b\}}}
    n 1 {\displaystyle n\geq 1} 1 ( b a ) n {\displaystyle {\frac {1}{(b-a)^{n}}}} L n ( a , b ) {\displaystyle L_{n}(a,b)} min { X 1 , , X n } {\displaystyle \min\{X_{1},\dots ,X_{n}\}} a = min { X 1 , , X n } {\displaystyle a=\min\{X_{1},\dots ,X_{n}\}} L n ( a , b ) {\displaystyle L_{n}(a,b)}
  10. ^ Nechval KN, Nechval NA, Vasermanis EK, Makeev VY (2002) Construcción de intervalos de confianza de longitud más corta. Transportes y Telecomunicaciones 3 (1) 95-103
  11. ^ abcde Wanke, Peter (2008). "La distribución uniforme como primer enfoque práctico para la gestión de inventarios de nuevos productos". Revista Internacional de Economía de la Producción . 114 (2): 811–819. doi :10.1016/j.ijpe.2008.04.004 – vía Research Gate.
  12. ^ Bellhouse, David (mayo de 2005). "Decodificando el Liber de Ludo de Cardano". Historia Matemática . 32 : 180-202. doi : 10.1016/j.hm.2004.04.001 .

Lectura adicional

  • Calculadora en línea de distribución uniforme (continua)
Retrieved from "https://en.wikipedia.org/w/index.php?title=Continuous_uniform_distribution&oldid=1251381905"