Estadística de pedidos

K-ésimo valor más pequeño en una muestra estadística
Funciones de densidad de probabilidad de las estadísticas de orden para una muestra de tamaño n  = 5 de una distribución exponencial con parámetro de escala unitaria

En estadística , la estadística de orden k de una muestra estadística es igual a su valor k más pequeño. [1] Junto con las estadísticas de rango , las estadísticas de orden se encuentran entre las herramientas más fundamentales en la estadística no paramétrica y la inferencia .

Los casos especiales importantes de las estadísticas de orden son el valor mínimo y máximo de una muestra y (con algunas salvedades que se analizan a continuación) la mediana de la muestra y otros cuartiles de la muestra .

Cuando se utiliza la teoría de probabilidad para analizar las estadísticas de orden de muestras aleatorias de una distribución continua , se utiliza la función de distribución acumulativa para reducir el análisis al caso de las estadísticas de orden de la distribución uniforme .

Notación y ejemplos

Por ejemplo, supongamos que se observan o registran cuatro números, lo que da como resultado una muestra de tamaño 4. Si los valores de la muestra son

6, 9, 3, 7,

Las estadísticas del pedido se indicarían

incógnita ( 1 ) = 3 ,     incógnita ( 2 ) = 6 ,     incógnita ( 3 ) = 7 ,     incógnita ( 4 ) = 9 , {\displaystyle x_{(1)}=3,\ \ x_{(2)}=6,\ \ x_{(3)}=7,\ \ x_{(4)}=9,\,}

donde el subíndice ( i ) entre paréntesis indica el estadístico de orden i de la muestra.

La estadística de primer orden (o estadística de orden más pequeño ) es siempre el mínimo de la muestra, es decir,

incógnita ( 1 ) = mín. { incógnita 1 , , incógnita norte } {\displaystyle X_{(1)}=\min\{\,X_{1},\ldots ,X_{n}\,\}}

donde, siguiendo una convención común, utilizamos letras mayúsculas para referirnos a variables aleatorias y letras minúsculas (como arriba) para referirnos a sus valores reales observados.

De manera similar, para una muestra de tamaño n , el estadístico de orden n (o estadístico de orden más grande ) es el máximo , es decir,

incógnita ( norte ) = máximo { incógnita 1 , , incógnita norte } . {\displaystyle X_{(n)}=\max\{\,X_{1},\ldots ,X_{n}\,\}.}

El rango de muestra es la diferencia entre el máximo y el mínimo. Es una función de las estadísticas de orden:

R a norte gramo mi { incógnita 1 , , incógnita norte } = incógnita ( norte ) incógnita ( 1 ) . {\displaystyle {\rm {Rango}}\{\,X_{1},\ldots ,X_{n}\,\}=X_{(n)}-X_{(1)}.}

Una estadística importante similar en el análisis de datos exploratorios que está simplemente relacionada con las estadísticas de orden es el rango intercuartil de la muestra .

La mediana de la muestra puede ser o no un estadístico de orden, ya que hay un único valor medio solo cuando el número n de observaciones es impar . Más precisamente, si n = 2 m +1 para algún entero m , entonces la mediana de la muestra es y, por lo tanto, es un estadístico de orden. Por otro lado, cuando n es par , n = 2 m y hay dos valores medios, y , y la mediana de la muestra es alguna función de los dos (generalmente el promedio) y, por lo tanto, no es un estadístico de orden. Observaciones similares se aplican a todos los cuantiles de la muestra. incógnita ( metro + 1 ) Estilo de visualización X_{(m+1)}} incógnita ( metro ) Estilo de visualización X_{(m)}} incógnita ( metro + 1 ) Estilo de visualización X_{(m+1)}}

Análisis probabilístico

Dadas cualesquiera variables aleatorias X 1 , X 2 , ..., X n , las estadísticas de orden X (1) , X (2) , ..., X ( n ) también son variables aleatorias, definidas al ordenar los valores ( realizaciones ) de X 1 , ..., X n en orden creciente.

Cuando las variables aleatorias X 1 , X 2 , ..., X n forman una muestra son independientes y se distribuyen de forma idéntica . Este es el caso que se trata a continuación. En general, las variables aleatorias X 1 , ..., X n pueden surgir al muestrear más de una población. Entonces son independientes , pero no necesariamente se distribuyen de forma idéntica, y su distribución de probabilidad conjunta viene dada por el teorema de Bapat–Beg .

A partir de ahora, supondremos que las variables aleatorias en consideración son continuas y, cuando sea conveniente, supondremos también que tienen una función de densidad de probabilidad (PDF), es decir, que son absolutamente continuas . Las peculiaridades del análisis de distribuciones que asignan masa a puntos (en particular, distribuciones discretas ) se discuten al final.

Función de distribución acumulativa de las estadísticas de orden

Para una muestra aleatoria como la anterior, con distribución acumulativa , las estadísticas de orden para esa muestra tienen distribuciones acumulativas como las siguientes [2] (donde r especifica qué estadística de orden): F incógnita ( incógnita ) Estilo de visualización F_{X}(x)}

F incógnita ( a ) ( incógnita ) = yo = a norte ( norte yo ) [ F incógnita ( incógnita ) ] yo [ 1 F incógnita ( incógnita ) ] norte yo {\displaystyle F_{X_{(r)}}(x)=\sum _{j=r}^{n}{\binom {n}{j}}[F_{X}(x)]^{j }[1-F_{X}(x)]^{nj}}

La función de densidad de probabilidad correspondiente se puede derivar de este resultado, y se encuentra que es

F incógnita ( a ) ( incógnita ) = norte ! ( a 1 ) ! ( norte a ) ! F incógnita ( incógnita ) [ F incógnita ( incógnita ) ] a 1 [ 1 F incógnita ( incógnita ) ] norte a . {\displaystyle f_{X_{(r)}}(x)={\frac {n!}{(r-1)!(nr)!}}f_{X}(x)[F_{X}(x)]^{r-1}[1-F_{X}(x)]^{nr}.}

Además, hay dos casos especiales, que tienen CDF que son fáciles de calcular.

F incógnita ( norte ) ( incógnita ) = Prob ( máximo { incógnita 1 , , incógnita norte } incógnita ) = [ F incógnita ( incógnita ) ] norte {\displaystyle F_{X_{(n)}}(x)=\operatorname {Prob} (\max\{\,X_{1},\ldots ,X_{n}\,\}\leq x)=[F_{X}(x)]^{n}}
F incógnita ( 1 ) ( incógnita ) = Prob ( mín. { incógnita 1 , , incógnita norte } incógnita ) = 1 [ 1 F incógnita ( incógnita ) ] norte {\displaystyle F_{X_{(1)}}(x)=\operatorname {Prob} (\min\{\,X_{1},\ldots ,X_{n}\,\}\leq x)=1-[1-F_{X}(x)]^{n}}

Lo cual puede deducirse mediante una cuidadosa consideración de las probabilidades.

Distribuciones de probabilidad de las estadísticas de orden

Estadísticas de orden tomadas de una distribución uniforme

En esta sección mostramos que las estadísticas de orden de la distribución uniforme en el intervalo unitario tienen distribuciones marginales que pertenecen a la familia de distribuciones beta . También proporcionamos un método simple para derivar la distribución conjunta de cualquier número de estadísticas de orden y, finalmente, traducimos estos resultados a distribuciones continuas arbitrarias utilizando la función de distribución acumulativa (cdf) .

En esta sección asumimos que se trata de una muestra aleatoria extraída de una distribución continua con función de distribución acumulativa . Denotando que obtenemos la muestra aleatoria correspondiente de la distribución uniforme estándar . Nótese que las estadísticas de orden también satisfacen . incógnita 1 , incógnita 2 , , incógnita norte {\displaystyle X_{1},X_{2},\ldots ,X_{n}} F incógnita Estilo de visualización F_ {X}} i = F incógnita ( incógnita i ) {\displaystyle U_{i}=F_{X}(X_{i})} 1 , , norte {\displaystyle U_{1},\ldots ,U_{n}} ( i ) = F incógnita ( incógnita ( i ) ) {\displaystyle U_{(i)}=F_{X}(X_{(i)})}

La función de densidad de probabilidad de la estadística de orden es igual a [3] ( a ) {\displaystyle U_{(k)}}

F ( a ) ( ) = norte ! ( a 1 ) ! ( norte a ) ! a 1 ( 1 ) norte a {\displaystyle f_{U_{(k)}}(u)={n! \sobre (k-1)!(nk)!}u^{k-1}(1-u)^{nk}}

Es decir, la estadística de orden k de la distribución uniforme es una variable aleatoria distribuida en beta . [3] [4]

( a ) Beta ( a , norte + 1 a ) . {\displaystyle U_{(k)}\sim \operatorname {Beta} (k,n+1\mathbf {-} k).}

La prueba de estas afirmaciones es la siguiente. Para que u esté entre u y u  +  du , es necesario que exactamente k  − 1 elementos de la muestra sean menores que u , y que al menos uno esté entre u y u  + d u . La probabilidad de que más de uno esté en este último intervalo ya es , por lo que tenemos que calcular la probabilidad de que exactamente k  − 1, 1 y n  −  k observaciones caigan en los intervalos , y respectivamente. Esto es igual a (consulte la distribución multinomial para obtener más detalles) ( a ) {\displaystyle U_{(k)}} Oh ( d 2 ) {\displaystyle O(du^{2})} ( 0 , ) {\estilo de visualización (0,u)} ( , + d ) {\displaystyle (u,u+du)} ( + d , 1 ) {\displaystyle (u+du,1)}

norte ! ( a 1 ) ! ( norte a ) ! a 1 d ( 1 d ) norte a {\displaystyle {n! \over (k-1)!(nk)!}u^{k-1}\cdot du\cdot (1-u-du)^{nk}}

y el resultado sigue.

La media de esta distribución es k / ( n + 1).

Distribución conjunta de las estadísticas de orden de la distribución uniforme

De manera similar, para i  <  j , se puede demostrar que la función de densidad de probabilidad conjunta de las dos estadísticas de orden U ( i )  <  U ( j ) es

F ( i ) , ( yo ) ( , en ) = norte ! i 1 ( i 1 ) ! ( en ) yo i 1 ( yo i 1 ) ! ( 1 en ) norte yo ( norte yo ) ! {\displaystyle f_{U_{(i)},U_{(j)}}(u,v)=n!{u^{i-1} \over (i-1)!}{(vu)^{ ji-1} \sobre (ji-1)!}{(1-v)^{nj} \sobre (nj)!}}

que es (hasta términos de orden superior a ) la probabilidad de que i  − 1, 1, j  − 1 −  i , 1 y n  −  j elementos de muestra caigan en los intervalos , , , , respectivamente. Oh ( d d en ) {\displaystyle O(du\,dv)} ( 0 , ) {\estilo de visualización (0,u)} ( , + d ) {\displaystyle (u,u+du)} ( + d , en ) {\estilo de visualización (u+du,v)} ( en , en + d en ) {\estilo de visualización (v,v+dv)} ( en + d en , 1 ) {\estilo de visualización (v+dv,1)}

Se razona de una manera completamente análoga para derivar las distribuciones conjuntas de orden superior. Tal vez sea sorprendente que la densidad conjunta de las estadísticas de orden n resulte constante :

F ( 1 ) , ( 2 ) , , ( norte ) ( 1 , 2 , , norte ) = norte ! . {\displaystyle f_{U_{(1)},U_{(2)},\ldots ,U_{(n)}}(u_{1},u_{2},\ldots ,u_{n})=n!.}

Una forma de entender esto es que la muestra no ordenada tiene una densidad constante igual a 1, y que hay n ! permutaciones diferentes de la muestra correspondientes a la misma secuencia de estadísticas de orden. Esto está relacionado con el hecho de que 1/ n ! es el volumen de la región . También está relacionado con otra particularidad de las estadísticas de orden de las variables aleatorias uniformes: de la desigualdad BRS se deduce que el número máximo esperado de variables aleatorias uniformes U(0,1] que se pueden elegir de una muestra de tamaño n con una suma que no exceda de está acotado por encima de , que es, por tanto, invariante en el conjunto de todas con producto constante . 0 < 1 < < norte < 1 {\displaystyle 0<u_{1}<\cdots <u_{n}<1} 0 < s < norte / 2 {\displaystyle 0<s<n/2} 2 s norte {\displaystyle {\sqrt {2sn}}} s , norte {\estilo de visualización s,n} s norte {\estilo de visualización sn}

Utilizando las fórmulas anteriores, se puede derivar la distribución del rango de las estadísticas de orden, es decir, la distribución de , es decir, el máximo menos el mínimo. De manera más general, para , también tiene una distribución beta: A partir de estas fórmulas podemos derivar la covarianza entre dos estadísticas de orden: La fórmula se deduce de notar que y comparar eso con donde , que es la distribución real de la diferencia. ( norte ) ( 1 ) {\displaystyle U_{(n)}-U_{(1)}} norte a > yo 1 {\displaystyle n\geq k>j\geq 1} ( a ) ( yo ) {\displaystyle U_{(k)}-U_{(j)}} ( a ) ( yo ) Beta ( a yo , norte ( a yo ) + 1 ) {\displaystyle U_{(k)}-U_{(j)}\sim \operatorname {Beta} (kj,n-(kj)+1)} Cov ( ( a ) , ( yo ) ) = yo ( norte a + 1 ) ( norte + 1 ) 2 ( norte + 2 ) {\displaystyle \operatorname {Cov} (U_{(k)},U_{(j)})={\frac {j(n-k+1)}{(n+1)^{2}(n+ 2)}}} Variedad ( ( a ) ( yo ) ) = Variedad ( ( a ) ) + Variedad ( ( yo ) ) 2 Cov ( ( a ) , ( yo ) ) = a ( norte a + 1 ) ( norte + 1 ) 2 ( norte + 2 ) + yo ( norte yo + 1 ) ( norte + 1 ) 2 ( norte + 2 ) 2 Cov ( ( a ) , ( yo ) ) {\displaystyle \operatorname {Var} (U_{(k)}-U_{(j)})=\operatorname {Var} (U_{(k)})+\operatorname {Var} (U_{(j)} )-2\cdot \operatorname {Cov} (U_{(k)},U_{(j)})={\frac {k(n-k+1)}{(n+1)^{2}( n+2)}}+{\frac {j(n-j+1)}{(n+1)^{2}(n+2)}}-2\cdot \operatorname {Cov} (U_{( k)},U_{(j)})} Variedad ( ) = ( a yo ) ( norte ( a yo ) + 1 ) ( norte + 1 ) 2 ( norte + 2 ) {\displaystyle \operatorname {Var} (U)={\frac {(k-j)(n-(k-j)+1)}{(n+1)^{2}(n+2)}}} U Beta ( k j , n ( k j ) + 1 ) {\displaystyle U\sim \operatorname {Beta} (k-j,n-(k-j)+1)}

Estadísticas de orden muestreadas a partir de una distribución exponencial

Para una muestra aleatoria de tamaño n de una distribución exponencial con parámetro λ , las estadísticas de orden X ( i ) para i = 1,2,3, ..., n tienen cada una distribución X 1 , X 2 , . . , X n {\displaystyle X_{1},X_{2},..,X_{n}}

X ( i ) = d 1 λ ( j = 1 i Z j n j + 1 ) {\displaystyle X_{(i)}{\stackrel {d}{=}}{\frac {1}{\lambda }}\left(\sum _{j=1}^{i}{\frac {Z_{j}}{n-j+1}}\right)}

donde Z j son variables aleatorias exponenciales estándar iid (es decir, con parámetro de tasa 1). Este resultado fue publicado por primera vez por Alfréd Rényi . [5] [6]

Estadísticas de orden extraídas de una distribución Erlang

La transformada de Laplace de las estadísticas de orden se puede muestrear a partir de una distribución de Erlang a través de un método de conteo de trayectorias [ aclaración necesaria ] . [7]

La distribución conjunta de las estadísticas de orden de una distribución absolutamente continua

Si F X es absolutamente continua , tiene una densidad tal que , y podemos usar las sustituciones d F X ( x ) = f X ( x ) d x {\displaystyle dF_{X}(x)=f_{X}(x)\,dx}

u = F X ( x ) {\displaystyle u=F_{X}(x)}

y

d u = f X ( x ) d x {\displaystyle du=f_{X}(x)\,dx}

para derivar las siguientes funciones de densidad de probabilidad para las estadísticas de orden de una muestra de tamaño n extraída de la distribución de X :

f X ( k ) ( x ) = n ! ( k 1 ) ! ( n k ) ! [ F X ( x ) ] k 1 [ 1 F X ( x ) ] n k f X ( x ) {\displaystyle f_{X_{(k)}}(x)={\frac {n!}{(k-1)!(n-k)!}}[F_{X}(x)]^{k-1}[1-F_{X}(x)]^{n-k}f_{X}(x)}
f X ( j ) , X ( k ) ( x , y ) = n ! ( j 1 ) ! ( k j 1 ) ! ( n k ) ! [ F X ( x ) ] j 1 [ F X ( y ) F X ( x ) ] k 1 j [ 1 F X ( y ) ] n k f X ( x ) f X ( y ) {\displaystyle f_{X_{(j)},X_{(k)}}(x,y)={\frac {n!}{(j-1)!(k-j-1)!(n-k)!}}[F_{X}(x)]^{j-1}[F_{X}(y)-F_{X}(x)]^{k-1-j}[1-F_{X}(y)]^{n-k}f_{X}(x)f_{X}(y)} dónde x y {\displaystyle x\leq y}
f X ( 1 ) , , X ( n ) ( x 1 , , x n ) = n ! f X ( x 1 ) f X ( x n ) {\displaystyle f_{X_{(1)},\ldots ,X_{(n)}}(x_{1},\ldots ,x_{n})=n!f_{X}(x_{1})\cdots f_{X}(x_{n})} dónde x 1 x 2 x n . {\displaystyle x_{1}\leq x_{2}\leq \dots \leq x_{n}.}

Aplicación: intervalos de confianza para cuantiles

Una pregunta interesante es qué tan bien funcionan las estadísticas de orden como estimadores de los cuantiles de la distribución subyacente.

Un ejemplo de muestra de tamaño pequeño

El caso más simple a considerar es qué tan bien la mediana de la muestra estima la mediana de la población.

Como ejemplo, considere una muestra aleatoria de tamaño 6. En ese caso, la mediana de la muestra se define generalmente como el punto medio del intervalo delimitado por las estadísticas de tercer y cuarto orden. Sin embargo, sabemos por la discusión anterior que la probabilidad de que este intervalo contenga realmente la mediana de la población es [ aclaración necesaria ]

( 6 3 ) ( 1 / 2 ) 6 = 5 16 31 % . {\displaystyle {6 \choose 3}(1/2)^{6}={5 \over 16}\approx 31\%.}

Aunque la mediana de la muestra es probablemente una de las mejores estimaciones puntuales independientes de la distribución de la mediana de la población, lo que ilustra este ejemplo es que no es particularmente buena en términos absolutos. En este caso particular, un mejor intervalo de confianza para la mediana es el delimitado por las estadísticas de segundo y quinto orden, que contiene la mediana de la población con probabilidad

[ ( 6 2 ) + ( 6 3 ) + ( 6 4 ) ] ( 1 / 2 ) 6 = 25 32 78 % . {\displaystyle \left[{6 \choose 2}+{6 \choose 3}+{6 \choose 4}\right](1/2)^{6}={25 \over 32}\approx 78\%.}

Con un tamaño de muestra tan pequeño, si se desea tener al menos un 95% de confianza, se debe decir que la mediana está entre el mínimo y el máximo de las 6 observaciones con una probabilidad de 31/32 o aproximadamente el 97%. El tamaño 6 es, de hecho, el tamaño de muestra más pequeño tal que el intervalo determinado por el mínimo y el máximo es al menos un intervalo de confianza del 95% para la mediana de la población.

Muestras de gran tamaño

Para la distribución uniforme, cuando n tiende a infinito, el p -ésimo cuartil de muestra se distribuye normalmente de forma asintótica , ya que se aproxima mediante

U ( n p ) A N ( p , p ( 1 p ) n ) . {\displaystyle U_{(\lceil np\rceil )}\sim AN\left(p,{\frac {p(1-p)}{n}}\right).}

Para una distribución general F con una densidad continua distinta de cero en F  −1 ( p ), se aplica una normalidad asintótica similar:

X ( n p ) A N ( F 1 ( p ) , p ( 1 p ) n [ f ( F 1 ( p ) ) ] 2 ) {\displaystyle X_{(\lceil np\rceil )}\sim AN\left(F^{-1}(p),{\frac {p(1-p)}{n[f(F^{-1}(p))]^{2}}}\right)}

donde f es la función de densidad y F  −1 es la función cuantil asociada a F . Una de las primeras personas en mencionar y demostrar este resultado fue Frederick Mosteller en su artículo seminal de 1946. [8] Investigaciones posteriores condujeron en la década de 1960 a la representación de Bahadur , que proporciona información sobre los límites de error. La convergencia a la distribución normal también se cumple en un sentido más fuerte, como la convergencia en entropía relativa o la divergencia KL . [9]

Se puede hacer una observación interesante en el caso en que la distribución es simétrica y la mediana de la población es igual a la media de la población. En este caso, la media de la muestra , según el teorema del límite central , también se distribuye normalmente de forma asintótica, pero con una varianza σ 2 /n en su lugar. Este análisis asintótico sugiere que la media supera a la mediana en casos de baja curtosis y viceversa. Por ejemplo, la mediana logra mejores intervalos de confianza para la distribución de Laplace , mientras que la media funciona mejor para X que se distribuyen normalmente.

Prueba

Se puede demostrar que

B ( k , n + 1 k )   = d   X X + Y , {\displaystyle B(k,n+1-k)\ {\stackrel {\mathrm {d} }{=}}\ {\frac {X}{X+Y}},}

dónde

X = i = 1 k Z i , Y = i = k + 1 n + 1 Z i , {\displaystyle X=\sum _{i=1}^{k}Z_{i},\quad Y=\sum _{i=k+1}^{n+1}Z_{i},}

siendo Z i variables aleatorias exponenciales independientes distribuidas de forma idéntica con tasa 1. Dado que X / n e Y / n se distribuyen normalmente de forma asintótica mediante la CLT, nuestros resultados se obtienen mediante la aplicación del método delta .

Aplicación: Estimación de densidad no paramétrica

Los momentos de la distribución para la estadística de primer orden se pueden utilizar para desarrollar un estimador de densidad no paramétrico. [10] Supongamos que queremos estimar la densidad en el punto . Consideremos las variables aleatorias , que son iid con función de distribución . En particular, . f X {\displaystyle f_{X}} x {\displaystyle x^{*}} Y i = | X i x | {\displaystyle Y_{i}=|X_{i}-x^{*}|} g Y ( y ) = f X ( y + x ) + f X ( x y ) {\displaystyle g_{Y}(y)=f_{X}(y+x^{*})+f_{X}(x^{*}-y)} f X ( x ) = g Y ( 0 ) 2 {\displaystyle f_{X}(x^{*})={\frac {g_{Y}(0)}{2}}}

El valor esperado de la estadística de primer orden dada una muestra de observaciones totales da como resultado: Y ( 1 ) {\displaystyle Y_{(1)}} N {\displaystyle N}

E ( Y ( 1 ) ) = 1 ( N + 1 ) g ( 0 ) + 1 ( N + 1 ) ( N + 2 ) 0 1 Q ( z ) δ N + 1 ( z ) d z {\displaystyle E(Y_{(1)})={\frac {1}{(N+1)g(0)}}+{\frac {1}{(N+1)(N+2)}}\int _{0}^{1}Q''(z)\delta _{N+1}(z)\,dz}

donde es la función cuantil asociada con la distribución , y . Esta ecuación en combinación con una técnica de jackknifing se convierte en la base para el siguiente algoritmo de estimación de densidad, Q {\displaystyle Q} g Y {\displaystyle g_{Y}} δ N ( z ) = ( N + 1 ) ( 1 z ) N {\displaystyle \delta _{N}(z)=(N+1)(1-z)^{N}}

 Entrada: una muestra de observaciones, puntos de evaluación de densidad, parámetro de ajuste (normalmente 1/3).    N   {\displaystyle N}     {  x      }   = 1   M     {\displaystyle \{x_{\ell }\}_{\ell =1}^{M}}     a  ( 0 , 1 )   {\displaystyle a\in (0,1)}  Salida: densidad estimada en los puntos de evaluación.    {     f ^         }   = 1   M     {\displaystyle \{{\hat {f}}_{\ell }\}_{\ell =1}^{M}} 
 1: Conjunto 2: Conjunto 3: Cree una matriz que contenga subconjuntos con observaciones cada uno.     m  N   = round  (  N  1  a   )   {\displaystyle m_{N}=\operatorname {round} (N^{1-a})}      s  N   =   N  m  N       {\displaystyle s_{N}={\frac {N}{m_{N}}}}      s  N   ×  m  N     {\displaystyle s_{N}\times m_{N}}      M  i j     {\displaystyle M_{ij}}      m  N     {\displaystyle m_{N}}      s  N     {\displaystyle s_{N}}  4: Cree un vector para almacenar las evaluaciones de densidad.       f ^      {\displaystyle {\hat {f}}}  5: para  hacer 6: para hacer 7: Encuentra la distancia más cercana al punto actual dentro del subconjunto n     = 1  M   {\displaystyle \ell =1\to M}       k = 1   m  N     {\displaystyle k=1\to m_{N}}       d   k     {\displaystyle d_{\ell k}}      x       {\displaystyle x_{\ell }}     k   {\displaystyle k}  8: fin para 9: Calcular el promedio del subconjunto de distancias a 10: Calcular la estimación de densidad en 11: fin para 12: regresar     x     :  d     =    k = 1    m  N        d   k    m  N       {\displaystyle x_{\ell }:d_{\ell }=\sum _{k=1}^{m_{N}}{\frac {d_{\ell k}}{m_{N}}}}      x     :     f ^        =   1  2 ( 1 +  s  N   )  d          {\displaystyle x_{\ell }:{\hat {f}}_{\ell }={\frac {1}{2(1+s_{N})d_{\ell }}}}         f ^      {\displaystyle {\hat {f}}} 

A diferencia de los parámetros de ajuste basados ​​en el ancho de banda/longitud para los enfoques basados ​​en histogramas y kernel , el parámetro de ajuste para el estimador de densidad basado en la estadística de orden es el tamaño de los subconjuntos de la muestra. Este estimador es más robusto que los enfoques basados ​​en histogramas y kernel; por ejemplo, las densidades como la distribución de Cauchy (que carece de momentos finitos) se pueden inferir sin la necesidad de modificaciones especializadas como los anchos de banda basados ​​en IQR . Esto se debe a que el primer momento de la estadística de orden siempre existe si el valor esperado de la distribución subyacente existe, pero lo inverso no es necesariamente cierto. [11]

Manejo de variables discretas

Supongamos que hay variables aleatorias iid de una distribución discreta con función de distribución acumulativa y función de masa de probabilidad . Para encontrar las probabilidades de las estadísticas de orden, primero se necesitan tres valores, a saber: X 1 , X 2 , , X n {\displaystyle X_{1},X_{2},\ldots ,X_{n}} F ( x ) {\displaystyle F(x)} f ( x ) {\displaystyle f(x)} k th {\displaystyle k^{\text{th}}}

p 1 = P ( X < x ) = F ( x ) f ( x ) ,   p 2 = P ( X = x ) = f ( x ) ,  and  p 3 = P ( X > x ) = 1 F ( x ) . {\displaystyle p_{1}=P(X<x)=F(x)-f(x),\ p_{2}=P(X=x)=f(x),{\text{ and }}p_{3}=P(X>x)=1-F(x).}

La función de distribución acumulativa de la estadística de orden se puede calcular observando que k th {\displaystyle k^{\text{th}}}

P ( X ( k ) x ) = P ( there are at least  k  observations less than or equal to  x ) , = P ( there are at most  n k  observations greater than  x ) , = j = 0 n k ( n j ) p 3 j ( p 1 + p 2 ) n j . {\displaystyle {\begin{aligned}P(X_{(k)}\leq x)&=P({\text{there are at least }}k{\text{ observations less than or equal to }}x),\\&=P({\text{there are at most }}n-k{\text{ observations greater than }}x),\\&=\sum _{j=0}^{n-k}{n \choose j}p_{3}^{j}(p_{1}+p_{2})^{n-j}.\end{aligned}}}

De manera similar, se da por P ( X ( k ) < x ) {\displaystyle P(X_{(k)}<x)}

P ( X ( k ) < x ) = P ( there are at least  k  observations less than  x ) , = P ( there are at most  n k  observations greater than or equal to  x ) , = j = 0 n k ( n j ) ( p 2 + p 3 ) j ( p 1 ) n j . {\displaystyle {\begin{aligned}P(X_{(k)}<x)&=P({\text{there are at least }}k{\text{ observations less than }}x),\\&=P({\text{there are at most }}n-k{\text{ observations greater than or equal to }}x),\\&=\sum _{j=0}^{n-k}{n \choose j}(p_{2}+p_{3})^{j}(p_{1})^{n-j}.\end{aligned}}}

Nótese que la función de masa de probabilidad de es simplemente la diferencia de estos valores, es decir X ( k ) {\displaystyle X_{(k)}}

P ( X ( k ) = x ) = P ( X ( k ) x ) P ( X ( k ) < x ) , = j = 0 n k ( n j ) ( p 3 j ( p 1 + p 2 ) n j ( p 2 + p 3 ) j ( p 1 ) n j ) , = j = 0 n k ( n j ) ( ( 1 F ( x ) ) j ( F ( x ) ) n j ( 1 F ( x ) + f ( x ) ) j ( F ( x ) f ( x ) ) n j ) . {\displaystyle {\begin{aligned}P(X_{(k)}=x)&=P(X_{(k)}\leq x)-P(X_{(k)}<x),\\&=\sum _{j=0}^{n-k}{n \choose j}\left(p_{3}^{j}(p_{1}+p_{2})^{n-j}-(p_{2}+p_{3})^{j}(p_{1})^{n-j}\right),\\&=\sum _{j=0}^{n-k}{n \choose j}\left((1-F(x))^{j}(F(x))^{n-j}-(1-F(x)+f(x))^{j}(F(x)-f(x))^{n-j}\right).\end{aligned}}}

Cálculo de estadísticas de pedidos

El problema de calcular el k -ésimo elemento más pequeño (o más grande) de una lista se denomina problema de selección y se resuelve mediante un algoritmo de selección. Aunque este problema es difícil para listas muy grandes, se han creado algoritmos de selección sofisticados que pueden resolver este problema en un tiempo proporcional al número de elementos de la lista, incluso si la lista está totalmente desordenada. Si los datos se almacenan en ciertas estructuras de datos especializadas, este tiempo se puede reducir a O(log n ). En muchas aplicaciones se requieren todas las estadísticas de orden, en cuyo caso se puede utilizar un algoritmo de ordenación y el tiempo empleado es O( n log n ).

Véase también

Ejemplos de estadísticas de pedidos

Aplicaciones

Las estadísticas de orden tienen muchas aplicaciones en áreas como la teoría de la confiabilidad, las matemáticas financieras, el análisis de supervivencia, la epidemiología, los deportes, el control de calidad, el riesgo actuarial, etc. Existe una extensa literatura dedicada a estudios sobre aplicaciones de las estadísticas de orden en estos campos.

Por ejemplo, una aplicación reciente en riesgo actuarial se puede encontrar en [12] , donde se proporcionan algunos principios de prima ponderada en términos de reclamaciones récord y k-ésimas reclamaciones récord.

Referencias

  1. ^ David, HA; Nagaraja, HN (2003). Estadísticas de pedidos . Serie Wiley en probabilidad y estadística. doi :10.1002/0471722162. ISBN 9780471722168.
  2. ^ Casella, George; Berger, Roger (2002). Inferencia estadística (2.ª ed.). Cengage Learning. pág. 229. ISBN 9788131503942.
  3. ^ ab Gentle, James E. (2009), Estadística computacional, Springer, pág. 63, ISBN 9780387981444.
  4. ^ Jones, MC (2009), "Distribución de Kumaraswamy: una distribución de tipo beta con algunas ventajas de manejabilidad", Metodología estadística , 6 (1): 70–81, doi :10.1016/j.stamet.2008.04.001, Como es bien sabido, la distribución beta es la distribución del estadístico de orden m de una muestra aleatoria de tamaño n de la distribución uniforme (en (0,1)).
  5. ^ David, HA; Nagaraja, HN (2003), "Capítulo 2. Teoría básica de la distribución", Estadísticas de orden , Serie Wiley en probabilidad y estadística, p. 9, doi :10.1002/0471722162.ch2, ISBN 9780471722168
  6. ^ Rényi, Alfred (1953). "Sobre la teoría de la estadística del orden". Acta Mathematica Hungarica . 4 (3): 191–231. doi : 10.1007/BF02127580 .
  7. ^ Hlynka, M.; Brill, PH; Horn, W. (2010). "Un método para obtener transformadas de Laplace de estadísticas de orden de variables aleatorias de Erlang". Statistics & Probability Letters . 80 : 9–18. doi :10.1016/j.spl.2009.09.006.
  8. ^ Mosteller, Frederick (1946). "Sobre algunas estadísticas útiles e ineficientes". Anales de estadística matemática . 17 (4): 377–408. doi : 10.1214/aoms/1177730881 . Consultado el 26 de febrero de 2015 .
  9. ^ M. Cardone, A. Dytso y C. Rush, "Teorema del límite central entrópico para estadísticas de orden", en IEEE Transactions on Information Theory, vol. 69, núm. 4, págs. 2193-2205, abril de 2023, doi: 10.1109/TIT.2022.3219344.
  10. ^ Garg, Vikram V.; Tenorio, Luis; Willcox, Karen (2017). "Estimación de densidad de distancia local mínima". Comunicaciones en Estadística - Teoría y Métodos . 46 (1): 148–164. arXiv : 1412.2851 . doi :10.1080/03610926.2014.988260. S2CID  14334678.
  11. ^ David, HA; Nagaraja, HN (2003), "Capítulo 3. Valores esperados y momentos", Order Statistics , Wiley Series in Probability and Statistics, pág. 34, doi :10.1002/0471722162.ch3, ISBN 9780471722168
  12. ^ Castaño-Martínez, A.; López-Blázquez, F.; Pigueiras, G.; Sordo, MA (2020). "Un método para construir e interpretar algunos principios de prima ponderada". ASTIN Bulletin: The Journal of the IAA . 50(3): 1037–1064. doi :10.1017/asb.2020.15.
  • Estadísticas de pedidos en PlanetMath . Consultado el 2 de febrero de 2005.
  • Weisstein, Eric W. "Estadística de orden". MathWorld .Recuperado el 2 de febrero de 2005
  • Estadísticas de orden dinámico de código fuente C++
Retrieved from "https://en.wikipedia.org/w/index.php?title=Order_statistic&oldid=1251997351"