Desigualdad de Chebyshev

Límite de probabilidad de que una variable aleatoria esté lejos de su media

En teoría de la probabilidad , la desigualdad de Chebyshev (también llamada desigualdad de Bienaymé-Chebyshev ) proporciona un límite superior a la probabilidad de desviación de una variable aleatoria (con varianza finita) de su media. Más específicamente, la probabilidad de que una variable aleatoria se desvíe de su media en más de es como máximo , donde es cualquier constante positiva y es la desviación estándar (la raíz cuadrada de la varianza). a σ {\estilo de visualización k\sigma} 1 / a 2 {\estilo de visualización 1/k^{2}} a {\estilo de visualización k} σ {\estilo de visualización \sigma}

La regla, que se refiere al rango de desviaciones típicas en torno a la media, suele denominarse en estadística teorema de Chebyshev. La desigualdad tiene una gran utilidad porque se puede aplicar a cualquier distribución de probabilidad en la que se definan la media y la varianza. Por ejemplo, se puede utilizar para demostrar la ley débil de los grandes números .

Su uso práctico es similar a la regla 68-95-99,7 , que se aplica únicamente a distribuciones normales . La desigualdad de Chebyshev es más general, y establece que un mínimo de sólo el 75% de los valores debe estar dentro de dos desviaciones estándar de la media y el 88,89% dentro de tres desviaciones estándar para una amplia gama de diferentes distribuciones de probabilidad . [1] [2]

El término desigualdad de Chebyshev también puede referirse a la desigualdad de Markov , especialmente en el contexto del análisis. Están estrechamente relacionadas y algunos autores se refieren a la desigualdad de Markov como "primera desigualdad de Chebyshev" y a la desigualdad similar a la que se hace referencia en esta página como "segunda desigualdad de Chebyshev".

La desigualdad de Chebyshev es estricta en el sentido de que para cada constante positiva elegida, existe una variable aleatoria tal que la desigualdad es de hecho una igualdad. [3]

Historia

El teorema recibe su nombre del matemático ruso Pafnuty Chebyshev , aunque fue formulado por primera vez por su amigo y colega Irénée-Jules Bienaymé . [4] : 98  El teorema fue demostrado por primera vez por Bienaymé en 1853 [5] y demostrado de manera más general por Chebyshev en 1867. [6] [7] Su estudiante Andrey Markov proporcionó otra prueba en su tesis de doctorado de 1884. [8]

Declaración

La desigualdad de Chebyshev suele enunciarse para variables aleatorias , pero puede generalizarse a un enunciado sobre espacios de medida .

Declaración probabilística

Sea X (integrable) una variable aleatoria con varianza finita distinta de cero σ 2 (y, por lo tanto, valor esperado finito μ ). [9] Entonces, para cualquier número real k > 0 ,

Pr ( | incógnita micras | a σ ) 1 a 2 . {\displaystyle \Pr(|X-\mu |\geq k\sigma )\leq {\frac {1}{k^{2}}}.}

Sólo es útil el caso en el que el lado derecho y la desigualdad son triviales, ya que todas las probabilidades son ≤ 1. a > 1 {\displaystyle k>1} a 1 {\displaystyle k\leq 1} 1 a 2 1 {\displaystyle {\frac {1}{k^{2}}}\geq 1}

Como ejemplo, el uso de muestra que la probabilidad de que los valores que se encuentran fuera del intervalo no superen . De manera equivalente, implica que la probabilidad de que los valores se encuentren dentro del intervalo (es decir, su "cobertura" ) es al menos . a = 2 {\displaystyle k={\sqrt {2}}} ( micras 2 σ , micras + 2 σ ) {\displaystyle (\mu -{\sqrt {2}}\sigma ,\mu +{\sqrt {2}}\sigma )} 1 2 {\displaystyle {\frac {1}{2}}} 1 2 {\displaystyle {\frac {1}{2}}}

Dado que puede aplicarse a distribuciones completamente arbitrarias siempre que tengan una media y una varianza finitas conocidas, la desigualdad generalmente da un límite pobre en comparación con lo que podría deducirse si se conocieran más aspectos sobre la distribución involucrada.

aMínimo % dentro de k desviaciones estándar
de la media
Máximo % más allá de k desviaciones estándar
de la media
10%100%
250%50%
1.555,56%44,44%
275%25%
2 287,5%12,5%
388,8889%11,1111%
493,75%6,25%
596%4%
697,2222%2,7778%
797,9592%2.0408%
898,4375%1,5625%
998,7654%1,2346%
1099%1%

Declaración de teoría de la medida

Sea ( X , Σ, μ) un espacio de medida y sea f una función medible de valor real extendida definida en X . Entonces, para cualquier número real t > 0 y 0 < p < ∞,

micras ( { incógnita incógnita : | F ( incógnita ) | a } ) 1 a pag incógnita | F | pag d micras . {\displaystyle \mu (\{x\en X\,:\,\,|f(x)|\geq t\})\leq {1 \sobre t^{p}}\int _{X}|f|^{p}\,d\mu .}

De manera más general, si g es una función medible de valor real extendida, no negativa y no decreciente, entonces: [ cita requerida ] gramo ( a ) 0 {\displaystyle g(t)\neq 0}

micras ( { incógnita incógnita : F ( incógnita ) a } ) 1 gramo ( a ) incógnita gramo F d micras . {\displaystyle \mu (\{x\en X\,:\,\,f(x)\geq t\})\leq {1 \sobre g(t)}\int _{X}g\circ f\,d\mu .}

Esta afirmación se deduce de la desigualdad de Markov , , con y , ya que en este caso . La afirmación anterior se deduce entonces definiendo como si y en caso contrario. micras ( { incógnita incógnita : | F ( incógnita ) | mi } ) 1 mi incógnita | F | d micras {\displaystyle \mu (\{x\in X:|F(x)|\geq \varepsilon \})\leq {\frac {1}{\varepsilon }}\int _{X}|F|d\ mu} F = gramo F {\displaystyle F=g\circ f} mi = gramo ( a ) {\displaystyle \varepsilon =g(t)} micras ( { incógnita incógnita : gramo F ( incógnita ) gramo ( a ) } ) = micras ( { incógnita incógnita : F ( incógnita ) a } ) {\displaystyle \mu(\{x\en X\,:\,\,g\circ f(x)\geq g(t)\})=\mu(\{x\en X\,:\,\,f(x)\geq t\})} gramo ( incógnita ) {\estilo de visualización g(x)} | incógnita | pag {\displaystyle |x|^{p}} incógnita a {\displaystyle x\geq t} 0 {\estilo de visualización 0}

Ejemplo

Supongamos que seleccionamos aleatoriamente un artículo de revista de una fuente con un promedio de 1000 palabras por artículo, con una desviación estándar de 200 palabras. Podemos entonces inferir que la probabilidad de que tenga entre 600 y 1400 palabras (es decir, dentro de las desviaciones estándar de la media) debe ser al menos del 75%, porque no hay más que la posibilidad de estar fuera de ese rango, por la desigualdad de Chebyshev. Pero si además sabemos que la distribución es normal , podemos decir que hay un 75% de probabilidad de que el recuento de palabras esté entre 770 y 1230 (que es un límite aún más estricto). a = 2 {\estilo de visualización k=2} 1 / a 2 = 1 / 4 {\displaystyle 1/k^{2}=1/4}

Nitidez de los límites

Como se muestra en el ejemplo anterior, el teorema suele proporcionar límites bastante flexibles. Sin embargo, estos límites no se pueden mejorar en general (siendo válidos para distribuciones arbitrarias). Los límites son precisos para el siguiente ejemplo: para cualquier k  ≥ 1,

incógnita = { 1 , con probabilidad  1 2 a 2 0 , con probabilidad  1 1 a 2 1 , con probabilidad  1 2 a 2 {\displaystyle X={\begin{cases}-1,&{\text{con probabilidad }}{\frac {1}{2k^{2}}}\\0,&{\text{con probabilidad }}1-{\frac {1}{k^{2}}}\\1,&{\text{con probabilidad }}{\frac {1}{2k^{2}}}\end{cases}}}

Para esta distribución, la media μ = 0 y la desviación estándar σ = 1/a , así que

Pr ( | incógnita micras | a σ ) = Pr ( | incógnita | 1 ) = 1 a 2 . {\displaystyle \Pr(|X-\mu |\geq k\sigma )=\Pr(|X|\geq 1)={\frac {1}{k^{2}}}.}

La desigualdad de Chebyshev es una igualdad precisamente para aquellas distribuciones que son una transformación lineal de este ejemplo.

Prueba

La desigualdad de Markov establece que para cualquier variable aleatoria de valor real Y y cualquier número positivo a , tenemos . Una forma de demostrar la desigualdad de Chebyshev es aplicar la desigualdad de Markov a la variable aleatoria con : Pr ( | Y | a ) mi [ | Y | ] / a {\displaystyle \Pr(|Y|\geq a)\leq \mathbb {E} [|Y|]/a} Y = ( incógnita micras ) 2 {\displaystyle Y=(X-\mu )^{2}} a = ( a σ ) 2 {\displaystyle a=(k\sigma )^{2}}

Pr ( | incógnita micras | a σ ) = Pr ( ( incógnita micras ) 2 a 2 σ 2 ) mi [ ( incógnita micras ) 2 ] a 2 σ 2 = σ 2 a 2 σ 2 = 1 a 2 . {\displaystyle \Pr(|X-\mu |\geq k\sigma )=\Pr((X-\mu )^{2}\geq k^{2}\sigma ^{2})\leq {\ frac {\mathbb {E} [(X-\mu )^{2}]}{k^{2}\sigma ^{2}}}={\frac {\sigma ^{2}}{k^{ 2}\sigma ^{2}}}={\frac {1}{k^{2}}}.}

También se puede demostrar directamente utilizando la expectativa condicional :

σ 2 = mi [ ( incógnita micras ) 2 ] = mi [ ( incógnita micras ) 2 a σ | incógnita micras | ] Pr [ a σ | incógnita micras | ] + mi [ ( incógnita micras ) 2 a σ > | incógnita micras | ] Pr [ a σ > | incógnita micras | ] ( a σ ) 2 Pr [ a σ | incógnita micras | ] + 0 Pr [ a σ > | incógnita micras | ] = a 2 σ 2 Pr [ a σ | incógnita micras | ] {\displaystyle {\begin{aligned}\sigma ^{2}&=\mathbb {E} [(X-\mu )^{2}]\\[5pt]&=\mathbb {E} [(X-\mu )^{2}\mid k\sigma \leq |X-\mu |]\Pr[k\sigma \leq |X-\mu |]+\mathbb {E} [(X-\mu )^{2}\mid k\sigma >|X-\mu |]\Pr[k\sigma >|X-\mu |]\\[5pt]&\geq (k\sigma )^{2}\Pr[k\sigma \leq |X-\mu |]+0\cdot \Pr[k\sigma >|X-\mu |]\\[5pt]&=k^{2}\sigma ^{2}\Pr[k\sigma \leq |X-\mu |]\end{aligned}}}

La desigualdad de Chebyshev se obtiene dividiendo por k 2 σ 2 . Esta prueba también muestra por qué los límites son bastante laxos en casos típicos: la esperanza condicional en el evento donde | X  −  μ | <  se descarta, y el límite inferior de k 2 σ 2 en el evento | X  −  μ | ≥  puede ser bastante pobre.

La desigualdad de Chebyshev también puede obtenerse directamente a partir de una simple comparación de áreas, a partir de la representación de un valor esperado como la diferencia de dos integrales de Riemann impropias ( última fórmula en la definición de valor esperado para variables aleatorias reales arbitrarias ). [10]

Extensiones

Se han desarrollado varias extensiones de la desigualdad de Chebyshev.

Desigualdad de Selberg

Selberg derivó una generalización a intervalos arbitrarios. [11] Supongamos que X es una variable aleatoria con media μ y varianza σ 2 . La desigualdad de Selberg establece [12] que si , β α 0 {\displaystyle \beta \geq \alpha \geq 0}

Pr ( X [ μ α , μ + β ] ) { α 2 α 2 + σ 2 if  α ( β α ) 2 σ 2 4 α β 4 σ 2 ( α + β ) 2 if  2 α β 2 σ 2 α ( β α ) 0 σ 2 α β {\displaystyle \Pr(X\in [\mu -\alpha ,\mu +\beta ])\geq {\begin{cases}{\frac {\alpha ^{2}}{\alpha ^{2}+\sigma ^{2}}}&{\text{if }}\alpha (\beta -\alpha )\geq 2\sigma ^{2}\\{\frac {4\alpha \beta -4\sigma ^{2}}{(\alpha +\beta )^{2}}}&{\text{if }}2\alpha \beta \geq 2\sigma ^{2}\geq \alpha (\beta -\alpha )\\0&\sigma ^{2}\geq \alpha \beta \end{cases}}}

Cuando , esto se reduce a la desigualdad de Chebyshev. Se sabe que estos son los mejores límites posibles. [13] α = β {\displaystyle \alpha =\beta }

Vector de dimensión finita

La desigualdad de Chebyshev se extiende naturalmente al contexto multivariado, donde se tienen n variables aleatorias X i con media μ i y varianza σ i 2 . Entonces se cumple la siguiente desigualdad.

Pr ( i = 1 n ( X i μ i ) 2 k 2 i = 1 n σ i 2 ) 1 k 2 {\displaystyle \Pr \left(\sum _{i=1}^{n}(X_{i}-\mu _{i})^{2}\geq k^{2}\sum _{i=1}^{n}\sigma _{i}^{2}\right)\leq {\frac {1}{k^{2}}}}

Esta se conoce como la desigualdad de Birnbaum-Raymond-Zuckerman en honor a los autores que la demostraron para dos dimensiones. [14] Este resultado se puede reescribir en términos de vectores X = ( X 1 , X 2 , ...) con media μ = ( μ 1 , μ 2 , ...) , desviación estándar σ = ( σ 1 , σ 2 , ...), en la norma euclidiana || ⋅ || . [15]

Pr ( X μ k σ ) 1 k 2 . {\displaystyle \Pr(\|X-\mu \|\geq k\|\sigma \|)\leq {\frac {1}{k^{2}}}.}

También se puede obtener una desigualdad de Chebyshev de dimensión infinita similar . Chen también ha derivado una segunda desigualdad relacionada. [16] Sea n la dimensión del vector estocástico X y sea E( X ) la media de X . Sea S la matriz de covarianza y k > 0 . Entonces

Pr ( ( X E ( X ) ) T S 1 ( X E ( X ) ) < k ) 1 n k {\displaystyle \Pr \left((X-\operatorname {E} (X))^{T}S^{-1}(X-\operatorname {E} (X))<k\right)\geq 1-{\frac {n}{k}}}

donde Y T es la transpuesta de Y . La desigualdad se puede escribir en términos de la distancia de Mahalanobis como

Pr ( d S 2 ( X , E ( X ) ) < k ) 1 n k {\displaystyle \Pr \left(d_{S}^{2}(X,\operatorname {E} (X))<k\right)\geq 1-{\frac {n}{k}}}

donde la distancia de Mahalanobis basada en S se define por

d S ( x , y ) = ( x y ) T S 1 ( x y ) {\displaystyle d_{S}(x,y)={\sqrt {(x-y)^{T}S^{-1}(x-y)}}}

Navarro [17] demostró que estos límites son precisos, es decir, son los mejores límites posibles para esa región cuando solo conocemos la media y la matriz de covarianza de X.

Stellato et al. [18] demostraron que esta versión multivariada de la desigualdad de Chebyshev se puede derivar fácilmente de manera analítica como un caso especial de Vandenberghe et al. [19] donde el límite se calcula resolviendo un programa semidefinido (SDP).

Correlación conocida

Si las variables son independientes esta desigualdad puede agudizarse. [20]

Pr ( i = 1 n | X i μ i | σ i k i ) i = 1 n ( 1 1 k i 2 ) {\displaystyle \Pr \left(\bigcap _{i=1}^{n}{\frac {|X_{i}-\mu _{i}|}{\sigma _{i}}}\leq k_{i}\right)\geq \prod _{i=1}^{n}\left(1-{\frac {1}{k_{i}^{2}}}\right)}

Berge derivó una desigualdad para dos variables correlacionadas X 1 , X 2 . [21] Sea ρ el coeficiente de correlación entre X 1 y X 2 y sea σ i 2 la varianza de X i . Entonces

Pr ( i = 1 2 [ | X i μ i | σ i < k ] ) 1 1 + 1 ρ 2 k 2 . {\displaystyle \Pr \left(\bigcap _{i=1}^{2}\left[{\frac {|X_{i}-\mu _{i}|}{\sigma _{i}}}<k\right]\right)\geq 1-{\frac {1+{\sqrt {1-\rho ^{2}}}}{k^{2}}}.}

Este resultado se puede afinar para tener límites diferentes para las dos variables aleatorias [22] y tener límites asimétricos, como en la desigualdad de Selberg. [23]

Olkin y Pratt derivaron una desigualdad para n variables correlacionadas. [24]

Pr ( i = 1 n | X i μ i | σ i < k i ) 1 1 n 2 ( u + n 1 n i 1 k i 2 u ) 2 {\displaystyle \Pr \left(\bigcap _{i=1}^{n}{\frac {|X_{i}-\mu _{i}|}{\sigma _{i}}}<k_{i}\right)\geq 1-{\frac {1}{n^{2}}}\left({\sqrt {u}}+{\sqrt {n-1}}{\sqrt {n\sum _{i}{\frac {1}{k_{i}^{2}}}-u}}\right)^{2}}

donde se toma la suma sobre las n variables y

u = i = 1 n 1 k i 2 + 2 i = 1 n j < i ρ i j k i k j {\displaystyle u=\sum _{i=1}^{n}{\frac {1}{k_{i}^{2}}}+2\sum _{i=1}^{n}\sum _{j<i}{\frac {\rho _{ij}}{k_{i}k_{j}}}}

donde ρ ij es la correlación entre X i y X j .

La desigualdad de Olkin y Pratt fue posteriormente generalizada por Godwin. [25]

Momentos más elevados

Mitzenmacher y Upfal [26] señalan que al aplicar la desigualdad de Markov a la variable no negativa , se puede obtener una familia de límites de cola. | X E ( X ) | n {\displaystyle |X-\operatorname {E} (X)|^{n}}

Pr ( | X E ( X ) | k E ( | X E ( X ) | n ) 1 n ) 1 k n , k > 0 , n 2. {\displaystyle \Pr \left(|X-\operatorname {E} (X)|\geq k\operatorname {E} (|X-\operatorname {E} (X)|^{n})^{\frac {1}{n}}\right)\leq {\frac {1}{k^{n}}},\qquad k>0,n\geq 2.}

Para n = 2 obtenemos la desigualdad de Chebyshev. Para k ≥ 1, n > 4 y suponiendo que existe el momento n , esta cota es más estricta que la desigualdad de Chebyshev. [ cita requerida ] Esta estrategia, llamada método de momentos , se utiliza a menudo para demostrar cotas de cola.

Momento exponencial

Una desigualdad relacionada, a veces conocida como desigualdad exponencial de Chebyshev [27], es la desigualdad

Pr ( X ε ) e t ε E ( e t X ) , t > 0. {\displaystyle \Pr(X\geq \varepsilon )\leq e^{-t\varepsilon }\operatorname {E} \left(e^{tX}\right),\qquad t>0.}

Sea K ( t ) la función generadora de cumulantes ,

K ( t ) = log ( E ( e t x ) ) . {\displaystyle K(t)=\log \left(\operatorname {E} \left(e^{tx}\right)\right).}

Tomando la transformación de Legendre-Fenchel [ aclaración necesaria ] de K ( t ) y usando la desigualdad exponencial de Chebyshev tenemos

log ( Pr ( X ε ) ) sup t ( t ε K ( t ) ) . {\displaystyle -\log(\Pr(X\geq \varepsilon ))\geq \sup _{t}(t\varepsilon -K(t)).}

Esta desigualdad se puede utilizar para obtener desigualdades exponenciales para variables ilimitadas. [28]

Variables acotadas

Si P( x ) tiene un soporte finito basado en el intervalo [ a , b ] , sea M = max(| a |, | b |) donde | x | es el valor absoluto de x . Si la media de P( x ) es cero entonces para todo k > 0 [29]

E ( | X | r ) k r M r Pr ( | X | k ) E ( | X | r ) k r . {\displaystyle {\frac {\operatorname {E} (|X|^{r})-k^{r}}{M^{r}}}\leq \Pr(|X|\geq k)\leq {\frac {\operatorname {E} (|X|^{r})}{k^{r}}}.}

La segunda de estas desigualdades con r = 2 es el límite de Chebyshev. La primera proporciona un límite inferior para el valor de P( x ).

Muestras finitas

Caso univariado

Saw et al. extendieron la desigualdad de Chebyshev a casos en los que la media y la varianza de la población no se conocen y pueden no existir, pero la media de la muestra y la desviación estándar de la muestra de N muestras se deben emplear para limitar el valor esperado de una nueva extracción de la misma distribución. [30] La siguiente versión más simple de esta desigualdad es dada por Kabán. [31]

Pr ( | X m | k s ) 1 N + 1 N + 1 N ( N 1 k 2 + 1 ) {\displaystyle \Pr(|X-m|\geq ks)\leq {\frac {1}{N+1}}\left\lfloor {\frac {N+1}{N}}\left({\frac {N-1}{k^{2}}}+1\right)\right\rfloor }

donde X es una variable aleatoria que hemos muestreado N veces, m es la media de la muestra, k es una constante y s es la desviación estándar de la muestra.

Esta desigualdad se mantiene incluso cuando los momentos de población no existen, y cuando la muestra está distribuida sólo débilmente de manera intercambiable ; este criterio se cumple para el muestreo aleatorio. Konijn ha determinado una tabla de valores para la desigualdad Saw-Yang-Mo para tamaños de muestra finitos ( N < 100). [32] La tabla permite el cálculo de varios intervalos de confianza para la media, basados ​​en múltiplos, C, del error estándar de la media calculada a partir de la muestra. Por ejemplo, Konijn muestra que para N  = 59, el intervalo de confianza del 95 por ciento para la media m es ( mCs , m + Cs ) donde C = 4,447 × 1,006 = 4,47 (esto es 2,28 veces mayor que el valor encontrado en el supuesto de normalidad que muestra la pérdida de precisión resultante de la ignorancia de la naturaleza precisa de la distribución).

Se puede derivar una desigualdad equivalente en términos de la media de la muestra, [31]

Pr ( | X m | k m ) N 1 N 1 k 2 s 2 m 2 + 1 N . {\displaystyle \Pr(|X-m|\geq km)\leq {\frac {N-1}{N}}{\frac {1}{k^{2}}}{\frac {s^{2}}{m^{2}}}+{\frac {1}{N}}.}

Konijn ha determinado una tabla de valores para la desigualdad Saw-Yang-Mo para tamaños de muestra finitos ( N < 100). [32]

Para N fijo y m grande la desigualdad Saw-Yang-Mo es aproximadamente [33]

Pr ( | X m | k s ) 1 N + 1 . {\displaystyle \Pr(|X-m|\geq ks)\leq {\frac {1}{N+1}}.}

Beasley et al. han sugerido una modificación de esta desigualdad [33]

Pr ( | X m | k s ) 1 k 2 ( N + 1 ) . {\displaystyle \Pr(|X-m|\geq ks)\leq {\frac {1}{k^{2}(N+1)}}.}

En las pruebas empíricas, esta modificación es conservadora, pero parece tener un poder estadístico bajo. Su base teórica aún no se ha explorado.

Dependencia del tamaño de la muestra

Los límites que estas desigualdades dan para una muestra finita son menos estrictos que los que da la desigualdad de Chebyshev para una distribución. Para ilustrar esto, supongamos que el tamaño de la muestra es N = 100 y que k = 3. La desigualdad de Chebyshev establece que, como máximo, aproximadamente el 11,11 % de la distribución se encontrará al menos a tres desviaciones estándar de la media. La versión de Kabán de la desigualdad para una muestra finita establece que, como máximo, aproximadamente el 12,05 % de la muestra se encuentra fuera de estos límites. La dependencia de los intervalos de confianza del tamaño de la muestra se ilustra con más detalle a continuación.

Para N = 10, el intervalo de confianza del 95% es aproximadamente ±13,5789 desviaciones estándar.

Para N = 100, el intervalo de confianza del 95% es aproximadamente ±4,9595 desviaciones estándar; el intervalo de confianza del 99% es aproximadamente ±140,0 desviaciones estándar.

Para N = 500, el intervalo de confianza del 95% es aproximadamente ±4,5574 desviaciones estándar; el intervalo de confianza del 99% es aproximadamente ±11,1620 desviaciones estándar.

Para N = 1000, los intervalos de confianza del 95% y 99% son aproximadamente ±4,5141 y aproximadamente ±10,5330 desviaciones estándar respectivamente.

La desigualdad de Chebyshev para la distribución da intervalos de confianza del 95% y 99% de aproximadamente ±4,472 desviaciones estándar y ±10 desviaciones estándar respectivamente.

Desigualdad de Samuelson

Aunque la desigualdad de Chebyshev es el mejor límite posible para una distribución arbitraria, esto no es necesariamente cierto para muestras finitas. La desigualdad de Samuelson establece que todos los valores de una muestra deben estar dentro de N  − 1 desviaciones estándar de la muestra de la media.

En comparación, la desigualdad de Chebyshev establece que toda la muestra, excepto una fracción 1/N, se encontrará dentro de N desviaciones estándar de la media. Dado que hay N muestras, esto significa que ninguna muestra se encontrará fuera de N desviaciones estándar de la media, lo que es peor que la desigualdad de Samuelson. Sin embargo, el beneficio de la desigualdad de Chebyshev es que se puede aplicar de manera más general para obtener límites de confianza para rangos de desviaciones estándar que no dependen del número de muestras.

Semivarianzas

Un método alternativo para obtener límites más precisos es mediante el uso de semivarianzas (varianzas parciales). Las semivarianzas superior ( σ + 2 ) e inferior ( σ 2 ) se definen como

σ + 2 = x > m ( x m ) 2 n 1 , {\displaystyle \sigma _{+}^{2}={\frac {\sum _{x>m}(x-m)^{2}}{n-1}},}
σ 2 = x < m ( m x ) 2 n 1 , {\displaystyle \sigma _{-}^{2}={\frac {\sum _{x<m}(m-x)^{2}}{n-1}},}

donde m es la media aritmética de la muestra y n es el número de elementos en la muestra.

La varianza de la muestra es la suma de las dos semivarianzas:

σ 2 = σ + 2 + σ 2 . {\displaystyle \sigma ^{2}=\sigma _{+}^{2}+\sigma _{-}^{2}.}

En términos de la semivarianza inferior, la desigualdad de Chebyshev puede escribirse [34]

Pr ( x m a σ ) 1 a 2 . {\displaystyle \Pr(x\leq m-a\sigma _{-})\leq {\frac {1}{a^{2}}}.}

Puesta

a = k σ σ . {\displaystyle a={\frac {k\sigma }{\sigma _{-}}}.}

La desigualdad de Chebyshev ahora se puede escribir

Pr ( x m k σ ) 1 k 2 σ 2 σ 2 . {\displaystyle \Pr(x\leq m-k\sigma )\leq {\frac {1}{k^{2}}}{\frac {\sigma _{-}^{2}}{\sigma ^{2}}}.}

También se puede derivar un resultado similar para la semivarianza superior.

Si ponemos

σ u 2 = max ( σ 2 , σ + 2 ) , {\displaystyle \sigma _{u}^{2}=\max(\sigma _{-}^{2},\sigma _{+}^{2}),}

La desigualdad de Chebyshev se puede escribir

Pr ( | x m k σ | ) 1 k 2 σ u 2 σ 2 . {\displaystyle \Pr(|x\leq m-k\sigma |)\leq {\frac {1}{k^{2}}}{\frac {\sigma _{u}^{2}}{\sigma ^{2}}}.}

Dado que σ u 2σ 2 , el uso de la semivarianza agudiza la desigualdad original.

Si se sabe que la distribución es simétrica, entonces

σ + 2 = σ 2 = 1 2 σ 2 {\displaystyle \sigma _{+}^{2}=\sigma _{-}^{2}={\frac {1}{2}}\sigma ^{2}}

y

Pr ( x m k σ ) 1 2 k 2 . {\displaystyle \Pr(x\leq m-k\sigma )\leq {\frac {1}{2k^{2}}}.}

Este resultado concuerda con el obtenido utilizando variables estandarizadas.

Nota
Se ha descubierto que la desigualdad con la semivarianza más baja es útil para estimar el riesgo a la baja en las finanzas y la agricultura. [34] [35] [36]

Caso multivariado

Stellato et al. [18] simplificaron la notación y extendieron la desigualdad empírica de Chebyshev de Saw et al. [30] al caso multivariado. Sea una variable aleatoria y sea . Extraemos muestras iid de denotadas como . Con base en las primeras muestras, definimos la media empírica como y la covarianza empírica insesgada como . Si es no singular, entonces para todos entonces ξ R n ξ {\textstyle \xi \in \mathbb {R} ^{n_{\xi }}} N Z n ξ {\textstyle N\in \mathbb {Z} _{\geq n_{\xi }}} N + 1 {\textstyle N+1} ξ {\textstyle \xi } ξ ( 1 ) , , ξ ( N ) , ξ ( N + 1 ) R n ξ {\textstyle \xi ^{(1)},\dots ,\xi ^{(N)},\xi ^{(N+1)}\in \mathbb {R} ^{n_{\xi }}} N {\textstyle N} μ N = 1 N i = 1 N ξ ( i ) {\textstyle \mu _{N}={\frac {1}{N}}\sum _{i=1}^{N}\xi ^{(i)}} Σ N = 1 N i = 1 N ( ξ ( i ) μ N ) ( ξ ( i ) μ N ) {\textstyle \Sigma _{N}={\frac {1}{N}}\sum _{i=1}^{N}(\xi ^{(i)}-\mu _{N})(\xi ^{(i)}-\mu _{N})^{\top }} Σ N {\displaystyle \Sigma _{N}} λ R 0 {\displaystyle \lambda \in \mathbb {R} _{\geq 0}}

P N + 1 ( ( ξ ( N + 1 ) μ N ) Σ N 1 ( ξ ( N + 1 ) μ N ) λ 2 ) min { 1 , 1 N + 1 n ξ ( N + 1 ) ( N 2 1 + N λ 2 ) N 2 λ 2 } . {\displaystyle {\begin{aligned}&P^{N+1}\left((\xi ^{(N+1)}-\mu _{N})^{\top }\Sigma _{N}^{-1}(\xi ^{(N+1)}-\mu _{N})\geq \lambda ^{2}\right)\\[8pt]\leq {}&\min \left\{1,{\frac {1}{N+1}}\left\lfloor {\frac {n_{\xi }(N+1)(N^{2}-1+N\lambda ^{2})}{N^{2}\lambda ^{2}}}\right\rfloor \right\}.\end{aligned}}}

Observaciones

En el caso univariado, es decir , esta desigualdad corresponde a la de Saw et al. [30] Además, el lado derecho se puede simplificar acotando superiormente la función de piso con su argumento n ξ = 1 {\textstyle n_{\xi }=1}

P N + 1 ( ( ξ ( N + 1 ) μ N ) Σ N 1 ( ξ ( N + 1 ) μ N ) λ 2 ) min { 1 , n ξ ( N 2 1 + N λ 2 ) N 2 λ 2 } . {\displaystyle P^{N+1}\left((\xi ^{(N+1)}-\mu _{N})^{\top }\Sigma _{N}^{-1}(\xi ^{(N+1)}-\mu _{N})\geq \lambda ^{2}\right)\leq \min \left\{1,{\frac {n_{\xi }(N^{2}-1+N\lambda ^{2})}{N^{2}\lambda ^{2}}}\right\}.}

Como , el lado derecho tiende a lo que corresponde a la desigualdad multivariada de Chebyshev sobre elipsoides formados según y centrados en . N {\textstyle N\to \infty } min { 1 , n ξ λ 2 } {\textstyle \min \left\{1,{\frac {n_{\xi }}{\lambda ^{2}}}\right\}} Σ {\textstyle \Sigma } μ {\textstyle \mu }

Límites más definidos

La desigualdad de Chebyshev es importante debido a su aplicabilidad a cualquier distribución. Como resultado de su generalidad, puede que no proporcione (y normalmente no lo hace) un límite tan preciso como los métodos alternativos que se pueden utilizar si se conoce la distribución de la variable aleatoria. Para mejorar la precisión de los límites proporcionados por la desigualdad de Chebyshev, se han desarrollado varios métodos; para una revisión, véase, por ejemplo, [12] [37].

Desigualdad de Cantelli

La desigualdad de Cantelli [38] de Francesco Paolo Cantelli establece que para una variable aleatoria real ( X ) con media ( μ ) y varianza ( σ 2 )

Pr ( X μ a ) σ 2 σ 2 + a 2 {\displaystyle \Pr(X-\mu \geq a)\leq {\frac {\sigma ^{2}}{\sigma ^{2}+a^{2}}}}

donde a ≥ 0.

Esta desigualdad se puede utilizar para demostrar una variante de una cola de la desigualdad de Chebyshev con k > 0 [39]

Pr ( X μ k σ ) 1 1 + k 2 . {\displaystyle \Pr(X-\mu \geq k\sigma )\leq {\frac {1}{1+k^{2}}}.}

Se sabe que el límite de la variante de una cola es preciso. Para comprobarlo, considere la variable aleatoria X que toma los valores

X = 1 {\displaystyle X=1} con probabilidad σ 2 1 + σ 2 {\displaystyle {\frac {\sigma ^{2}}{1+\sigma ^{2}}}}
X = σ 2 {\displaystyle X=-\sigma ^{2}} con probabilidad 1 1 + σ 2 . {\displaystyle {\frac {1}{1+\sigma ^{2}}}.}

Entonces E( X ) = 0 y E( X 2 ) = σ 2 y P( X < 1) = 1 / (1 + σ 2 ).

Una aplicación: distancia entre la media y la mediana

La variante unilateral se puede utilizar para demostrar la proposición de que para distribuciones de probabilidad que tienen un valor esperado y una mediana , la media y la mediana nunca pueden diferir entre sí en más de una desviación estándar . Para expresar esto en símbolos, sean μ , ν y σ respectivamente la media, la mediana y la desviación estándar. Entonces

| μ ν | σ . {\displaystyle \left|\mu -\nu \right|\leq \sigma .}

No es necesario suponer que la varianza es finita porque esta desigualdad es trivialmente verdadera si la varianza es infinita.

La prueba es la siguiente. Si se establece k  = 1 en el enunciado de la desigualdad unilateral, se obtiene:

Pr ( X μ σ ) 1 2 Pr ( X μ + σ ) 1 2 . {\displaystyle \Pr(X-\mu \geq \sigma )\leq {\frac {1}{2}}\implies \Pr(X\geq \mu +\sigma )\leq {\frac {1}{2}}.}

Cambiando el signo de X y de μ , obtenemos

Pr ( X μ σ ) 1 2 . {\displaystyle \Pr(X\leq \mu -\sigma )\leq {\frac {1}{2}}.}

Como la mediana es por definición cualquier número real  m que satisface las desigualdades

Pr ( X m ) 1 2  and  Pr ( X m ) 1 2 {\displaystyle \Pr(X\leq m)\geq {\frac {1}{2}}{\text{ and }}\Pr(X\geq m)\geq {\frac {1}{2}}}

Esto implica que la mediana se encuentra dentro de una desviación estándar de la media. También existe una prueba que utiliza la desigualdad de Jensen .

La desigualdad de Bhattacharyya

Bhattacharyya [40] extendió la desigualdad de Cantelli utilizando el tercer y cuarto momento de la distribución.

Sea y la varianza. Sea y . μ = 0 {\displaystyle \mu =0} σ 2 {\displaystyle \sigma ^{2}} γ = E [ X 3 ] / σ 3 {\displaystyle \gamma =E[X^{3}]/\sigma ^{3}} κ = E [ X 4 ] / σ 4 {\displaystyle \kappa =E[X^{4}]/\sigma ^{4}}

Si entonces k 2 k γ 1 > 0 {\displaystyle k^{2}-k\gamma -1>0}

Pr ( X > k σ ) κ γ 2 1 ( κ γ 2 1 ) ( 1 + k 2 ) + ( k 2 k γ 1 ) . {\displaystyle \Pr(X>k\sigma )\leq {\frac {\kappa -\gamma ^{2}-1}{(\kappa -\gamma ^{2}-1)(1+k^{2})+(k^{2}-k\gamma -1)}}.}

La necesidad puede requerir que sea razonablemente grande. k 2 k γ 1 > 0 {\displaystyle k^{2}-k\gamma -1>0} k {\displaystyle k}

En este caso esto se simplifica a E [ X 3 ] = 0 {\displaystyle E[X^{3}]=0}

Pr ( X > k σ ) κ 1 κ ( k 2 + 1 ) 2 for  k > 1. {\displaystyle \Pr(X>k\sigma )\leq {\frac {\kappa -1}{\kappa \left(k^{2}+1\right)-2}}\quad {\text{for }}k>1.}

Dado que para cerca de 1, este límite mejora ligeramente el límite de Cantelli, ya que . κ 1 κ ( k 2 + 1 ) 2 = 1 2 κ ( k 1 ) 2 ( κ 1 ) + O ( ( k 1 ) 2 ) {\displaystyle {\frac {\kappa -1}{\kappa \left(k^{2}+1\right)-2}}={\frac {1}{2}}-{\frac {\kappa (k-1)}{2(\kappa -1)}}+O\left((k-1)^{2}\right)} k {\displaystyle k} 1 2 k 1 2 + O ( ( k 1 ) 2 ) {\displaystyle {\frac {1}{2}}-{\frac {k-1}{2}}+O\left((k-1)^{2}\right)} κ > 1 {\displaystyle \kappa >1}

gana un factor 2 sobre la desigualdad de Chebyshev.

Desigualdad de Gauss

En 1823 Gauss demostró que para una distribución con un modo único en cero, [41]

Pr ( | X | k ) 4 E ( X 2 ) 9 k 2 if k 2 4 3 E ( X 2 ) , {\displaystyle \Pr(|X|\geq k)\leq {\frac {4\operatorname {E} (X^{2})}{9k^{2}}}\quad {\text{if}}\quad k^{2}\geq {\frac {4}{3}}\operatorname {E} (X^{2}),}
Pr ( | X | k ) 1 k 3 E ( X 2 ) if k 2 4 3 E ( X 2 ) . {\displaystyle \Pr(|X|\geq k)\leq 1-{\frac {k}{{\sqrt {3}}\operatorname {E} (X^{2})}}\quad {\text{if}}\quad k^{2}\leq {\frac {4}{3}}\operatorname {E} (X^{2}).}

Desigualdad de Vysochanskij-Petunin

La desigualdad de Vysochanskij-Petunin generaliza la desigualdad de Gauss, que sólo se cumple para la desviación de la moda de una distribución unimodal, a la desviación de la media o, más generalmente, de cualquier centro. [42] Si X es una distribución unimodal con media μ y varianza σ 2 , entonces la desigualdad establece que

Pr ( | X μ | k σ ) 4 9 k 2 if k 8 / 3 = 1.633. {\displaystyle \Pr(|X-\mu |\geq k\sigma )\leq {\frac {4}{9k^{2}}}\quad {\text{if}}\quad k\geq {\sqrt {8/3}}=1.633.}
Pr ( | X μ | k σ ) 4 3 k 2 1 3 if k 8 / 3 . {\displaystyle \Pr(|X-\mu |\geq k\sigma )\leq {\frac {4}{3k^{2}}}-{\frac {1}{3}}\quad {\text{if}}\quad k\leq {\sqrt {8/3}}.}

Para distribuciones unimodales simétricas, la mediana y la moda son iguales, por lo que tanto la desigualdad de Vysochanskij-Petunin como la desigualdad de Gauss se aplican al mismo centro. Además, para distribuciones simétricas, los límites unilaterales se pueden obtener observando que

Pr ( X μ k σ ) = Pr ( X μ k σ ) = 1 2 Pr ( | X μ | k σ ) . {\displaystyle \Pr(X-\mu \geq k\sigma )=\Pr(X-\mu \leq -k\sigma )={\frac {1}{2}}\Pr(|X-\mu |\geq k\sigma ).}

La fracción adicional de la presencia en estos límites de cola conduce a intervalos de confianza mejores que la desigualdad de Chebyshev. Por ejemplo, para cualquier distribución unimodal simétrica, la desigualdad de Vysochanskij-Petunin establece que 4/(9 x 3^2) = 4/81 ≈ 4,9 % de la distribución se encuentra fuera de 3 desviaciones estándar de la moda. 4 / 9 {\displaystyle 4/9}

Límites para distribuciones específicas

DasGupta ha demostrado que si se sabe que la distribución es normal [43]

Pr ( | X μ | k σ ) 1 3 k 2 . {\displaystyle \Pr(|X-\mu |\geq k\sigma )\leq {\frac {1}{3k^{2}}}.}

De la desigualdad de DasGupta se desprende que, en el caso de una distribución normal, al menos el 95 % se encuentra dentro de un margen de aproximadamente 2,582 desviaciones estándar de la media. Esta cifra es menos precisa que la verdadera (aproximadamente 1,96 desviaciones estándar de la media).

  • DasGupta ha determinado un conjunto de mejores límites posibles para una distribución normal para esta desigualdad. [43]
  • Steliga y Szynal han extendido estos límites a la distribución de Pareto . [44]
  • Grechuk et al. desarrollaron un método general para derivar los mejores límites posibles en la desigualdad de Chebyshev para cualquier familia de distribuciones y cualquier medida de riesgo de desviación en lugar de la desviación estándar. En particular, derivaron la desigualdad de Chebyshev para distribuciones con densidades logarítmicas cóncavas . [45]

También se conocen otras desigualdades relacionadas.

Desigualdad de Paley-Zygmund

La desigualdad de Paley-Zygmund proporciona un límite inferior para las probabilidades de cola, a diferencia de la desigualdad de Chebyshev que proporciona un límite superior. [46] Al aplicarla al cuadrado de una variable aleatoria, obtenemos

Pr ( | Z | > θ E [ Z 2 ] ) ( 1 θ 2 ) 2 E [ Z 2 ] 2 E [ Z 4 ] . {\displaystyle \Pr(|Z|>\theta {\sqrt {E[Z^{2}]}})\geq {\frac {(1-\theta ^{2})^{2}E[Z^{2}]^{2}}{E[Z^{4}]}}.}

La transformación de Haldane

Un uso de la desigualdad de Chebyshev en aplicaciones es crear intervalos de confianza para variables con una distribución desconocida. Haldane señaló, [47] utilizando una ecuación derivada por Kendall , [48] que si una variable ( x ) tiene una media cero, varianza unitaria y asimetría finita ( γ ) y curtosis ( κ ), entonces la variable se puede convertir en una puntuación estándar distribuida normalmente ( z ):

z = x γ 6 ( x 2 1 ) + x 72 [ 2 γ 2 ( 4 x 2 7 ) 3 κ ( x 2 3 ) ] + {\displaystyle z=x-{\frac {\gamma }{6}}(x^{2}-1)+{\frac {x}{72}}[2\gamma ^{2}(4x^{2}-7)-3\kappa (x^{2}-3)]+\cdots }

Esta transformación puede ser útil como alternativa a la desigualdad de Chebyshev o como complemento de ella para derivar intervalos de confianza para variables con distribuciones desconocidas.

Si bien esta transformación puede ser útil para distribuciones moderadamente sesgadas y/o curtósicas, funciona mal cuando la distribución está marcadamente sesgada y/o curtósica.

Desigualdad de He, Zhang y Zhang

Para cualquier colección de n variables aleatorias independientes no negativas Xi con expectativa 1 [49]

Pr ( i = 1 n X i n 1 1 n ) 7 8 . {\displaystyle \Pr \left({\frac {\sum _{i=1}^{n}X_{i}}{n}}-1\geq {\frac {1}{n}}\right)\leq {\frac {7}{8}}.}

Desigualdad integral de Chebyshev

Hay una segunda desigualdad (menos conocida) que también lleva el nombre de Chebyshev [50].

Si f , g  : [ a , b ] → R son dos funciones monótonas de la misma monotonía, entonces

1 b a a b f ( x ) g ( x ) d x [ 1 b a a b f ( x ) d x ] [ 1 b a a b g ( x ) d x ] . {\displaystyle {\frac {1}{b-a}}\int _{a}^{b}\!f(x)g(x)\,dx\geq \left[{\frac {1}{b-a}}\int _{a}^{b}\!f(x)\,dx\right]\left[{\frac {1}{b-a}}\int _{a}^{b}\!g(x)\,dx\right].}

Si f y g son de monotonía opuesta, entonces la desigualdad anterior funciona en sentido inverso.

Esta desigualdad está relacionada con la desigualdad de Jensen , [51] la desigualdad de Kantorovich , [52] la desigualdad de Hermite-Hadamard [52] y la conjetura de Walter. [53]

Otras desigualdades

Existen también otras desigualdades asociadas con Chebyshev:

Notas

La Agencia de Protección Ambiental ha sugerido las mejores prácticas para el uso de la desigualdad de Chebyshev para estimar intervalos de confianza. [54]

Véase también

Referencias

  1. ^ Kvanli, Alan H.; Pavur, Robert J.; Keeling, Kellie B. (2006). Estadísticas gerenciales concisas. cEngage Learning . págs. 81–82. ISBN 978-0-324-22388-0.
  2. ^ Chernick, Michael R. (2011). Fundamentos de bioestadística para médicos, enfermeras y clínicos. John Wiley & Sons . págs. 49-50. ISBN 978-0-470-64185-9.
  3. ^ "¿Término de error de la desigualdad de Chebyshev?". Mathematics Stack Exchange . Consultado el 11 de diciembre de 2023 .
  4. ^ Knuth, Donald (1997). El arte de la programación informática: algoritmos fundamentales, volumen 1 (3.ª ed.). Reading, Massachusetts: Addison–Wesley. ISBN 978-0-201-89683-1Archivado desde el original el 26 de febrero de 2009 . Consultado el 1 de octubre de 2012 .
  5. ^ Bienaymé, I.-J. (1853). "Consideraciones sobre el descubrimiento de Laplace". Cuentas Rendus de la Academia de Ciencias . 37 : 309–324.
  6. ^ Chebichef, P. (1867). "Des valeurs moyennes". Revista de Mathématiques Pures et Appliquées . 2. 12 : 177–184.
  7. ^ Routledge, Richard. Desigualdad de Chebyshev. Enciclopedia Británica.
  8. ^ Markov A. (1884) Sobre ciertas aplicaciones de fracciones continuas algebraicas, tesis doctoral, San Petersburgo
  9. ^ Feller, W., 1968. Introducción a la teoría de la probabilidad y sus aplicaciones, vol. 1, pág. 227 (Wiley, Nueva York).
  10. ^ Uhl, Roland (2023). Charakterisierung des Erwartungswertes am Graphen der Verteilungsfunktion [ Caracterización del valor esperado en la gráfica de la función de distribución acumulativa ] (PDF) . Technische Hochschule Brandeburgo. doi : 10.25933/opus4-2986 .pág. 5.
  11. ^ Selberg, Henrik L. (1940). "Zwei Ungleichungen zur Ergänzung des Tchebycheffschen Lemmas" [Dos desigualdades que complementan el lema de Tchebycheff]. Skandinavisk Aktuarietidskrift (Revista actuarial escandinava) (en alemán). 1940 (3–4): 121–125. doi :10.1080/03461238.1940.10404804. ISSN  0346-1238. OCLC  610399869.
  12. ^ ab Godwin, HJ (septiembre de 1955). "Sobre las generalizaciones de la desigualdad de Chebychef". Revista de la Asociación Estadounidense de Estadística . 50 (271): 923–945. doi :10.1080/01621459.1955.10501978. ISSN  0162-1459.
  13. ^ Conlon, J.; Dulá, JH "Una derivación geométrica e interpretación de la desigualdad de Chebyscheff" (PDF) . Consultado el 2 de octubre de 2012 .
  14. ^ Birnbaum, ZW; Raymond, J.; Zuckerman, HS (1947). "Una generalización de la desigualdad de Tshebyshev a dos dimensiones". Anales de estadística matemática . 18 (1): 70–79. doi : 10.1214/aoms/1177730493 . ISSN:  0003-4851. MR:  0019849. Zbl  : 0032.03402 . Consultado el 7 de octubre de 2012 .
  15. ^ Ferentinos, K (1982). "Sobre las desigualdades tipo Tchebycheff". Trabajos Estadıst Investigación Oper . 33 : 125-132. doi :10.1007/BF02888707. S2CID  123762564.
  16. ^ Xinjia Chen (2007). "Una nueva generalización de la desigualdad de Chebyshev para vectores aleatorios". arXiv : 0707.0805v2 [math.ST].
  17. ^ Jorge Navarro (2014). "¿Se pueden alcanzar los límites en la desigualdad multivariante de Chebyshev?". Statistics and Probability Letters . 91 : 1–5. doi :10.1016/j.spl.2014.03.028.
  18. ^ ab Stellato, Bartolomeo; Parys, Bart PG Van; Goulart, Paul J. (31 de mayo de 2016). "Desigualdad de Chebyshev multivariada con media y varianza estimadas". The American Statistician . 71 (2): 123–127. arXiv : 1509.08398 . doi :10.1080/00031305.2016.1186559. ISSN  0003-1305. S2CID  53407286.
  19. ^ Vandenberghe, L.; Boyd, S.; Comanor, K. (1 de enero de 2007). "Límites de Chebyshev generalizados mediante programación semidefinida". SIAM Review . 49 (1): 52–64. Bibcode :2007SIAMR..49...52V. CiteSeerX 10.1.1.126.9105 . doi :10.1137/S0036144504440543. ISSN  0036-1445. 
  20. ^ Kotz, Samuel ; Balakrishnan, N.; Johnson, Norman L. (2000). Distribuciones multivariadas continuas, volumen 1, modelos y aplicaciones (2.ª ed.). Boston [ua]: Houghton Mifflin. ISBN 978-0-471-18387-7. Recuperado el 7 de octubre de 2012 .
  21. ^ Berge, PO (1938). "Una nota sobre una forma del teorema de Chebycheff para dos variables". Biometrika . 29 (3/4): 405–406. doi :10.2307/2332015. JSTOR  2332015.
  22. ^ Lal DN (1955) Una nota sobre una forma de la desigualdad de Chebycheff para dos o más variables. Sankhya 15(3):317–320
  23. ^ Isii K. (1959) Sobre un método para generalizaciones de la desigualdad de Chebycheff. Ann Inst Stat Math 10: 65–88
  24. ^ Olkin, Ingram ; Pratt, John W. (1958). "Una desigualdad de Tchebycheff multivariante". Anales de estadística matemática . 29 (1): 226–234. doi : 10.1214/aoms/1177706720 . MR  0093865. Zbl  0085.35204.
  25. ^ Godwin HJ (1964) Desigualdades en funciones de distribución. Nueva York, Hafner Pub. Co.
  26. ^ Mitzenmacher, Michael ; Upfal, Eli (enero de 2005). Probabilidad y computación: algoritmos aleatorios y análisis probabilístico (edición reimpresa). Cambridge [ua]: Cambridge Univ. Press. ISBN 978-0-521-83540-4. Recuperado el 6 de octubre de 2012 .
  27. ^ Sección 2.1 Archivado el 30 de abril de 2015 en Wayback Machine .
  28. ^ Baranoski, Gladimir VG; Rokne, Jon G.; Xu, Guangwu (15 de mayo de 2001). "Aplicación de la desigualdad exponencial de Chebyshev al cálculo no determinista de factores de forma". Journal of Quantitative Spectroscopy and Radiative Transfer . 69 (4): 199–200. Bibcode :2001JQSRT..69..447B. doi :10.1016/S0022-4073(00)00095-9.(las referencias de este artículo están corregidas por Baranoski, Gladimir VG; Rokne, Jon G.; Guangwu Xu (15 de enero de 2002). "Corrigendum a: 'Aplicación de la desigualdad exponencial de Chebyshev al cálculo no determinista de factores de forma'". Journal of Quantitative Spectroscopy and Radiative Transfer . 72 (2): 199–200. Bibcode :2002JQSRT..72..199B. doi : 10.1016/S0022-4073(01)00171-6 .)
  29. ^ Dufour (2003) Propiedades de los momentos de variables aleatorias
  30. ^ abc Saw, John G.; Yang, Mark CK; Mo, Tse Chin (1984). "Desigualdad de Chebyshev con media y varianza estimadas". El estadístico estadounidense . 38 (2): 130–2. doi :10.2307/2683249. ISSN  0003-1305. JSTOR  2683249.
  31. ^ ab Kabán, Ata (2012). "Detección no paramétrica de distancias sin sentido en datos de alta dimensión". Estadística y Computación . 22 (2): 375–85. doi :10.1007/s11222-011-9229-0. S2CID  6018114.
  32. ^ ab Konijn, Hendrik S. (febrero de 1987). "Intervalos de predicción sin distribución y otros". The American Statistician . 41 (1): 11–15. doi :10.2307/2684311. JSTOR  2684311.
  33. ^ ab Beasley, T. Mark; Page, Grier P.; Brand, Jaap PL; Gadbury, Gary L.; Mountz, John D.; Allison, David B. (enero de 2004). "Desigualdad de Chebyshev para pruebas no paramétricas con N y α pequeños en la investigación de microarrays". Revista de la Royal Statistical Society . C (Estadística aplicada). 53 (1): 95–108. doi : 10.1111/j.1467-9876.2004.00428.x . ISSN  1467-9876. S2CID  122678278.
  34. ^ ab Berck, Peter ; Hihn, Jairus M. (mayo de 1982). "Uso de la semivarianza para estimar reglas de seguridad ante todo". American Journal of Agricultural Economics . 64 (2): 298–300. doi :10.2307/1241139. ISSN  0002-9092. JSTOR  1241139.
  35. ^ Nantell, Timothy J.; Price, Barbara (junio de 1979). "Una comparación analítica de las teorías de los mercados de capitales de varianza y semivarianza". Revista de análisis financiero y cuantitativo . 14 (2): 221–42. doi :10.2307/2330500. JSTOR  2330500. S2CID  154652959.
  36. ^ Neave, Edwin H.; Ross, Michael N.; Yang, Jun (2009). "Distinguir el potencial alcista del riesgo bajista". Management Research News . 32 (1): 26–36. doi :10.1108/01409170910922005. ISSN  0140-9174.
  37. ^ Savage, I. Richard. "Desigualdades de probabilidad del tipo Chebycheff". Revista de investigación de la Oficina Nacional de Normas-B. Matemáticas y física matemática B 65 (1961): 211-222
  38. ^ Cantelli F. (1910) Intorno ad un teorema fondamentale della teoria del rischio. Bolletino dell Associazione degli Attuari Italiani
  39. ^ Grimmett y Stirzaker, problema 7.11.9. Se pueden encontrar varias pruebas de este resultado en Chebyshev's Inequalities Archivado el 24 de febrero de 2019 en Wayback Machine por AG McDowell.
  40. ^ Bhattacharyya, BB (1987). "Desigualdad unilateral de Chebyshev cuando se conocen los primeros cuatro momentos". Communications in Statistics – Theory and Methods . 16 (9): 2789–91. doi :10.1080/03610928708829540. ISSN  0361-0926.
  41. ^ Gauss CF Theoria combinationis observationum erroribus minimis obnoxiae. Pars prior. Pars posterior. Supplementum. Teoría de la combinación de observaciones menos sujetas a errores. Primera parte. Segunda parte. Suplemento. 1995. Traducido por GW Stewart. Serie Classics in Applied Mathematics, Society for Industrial and Applied Mathematics, Filadelfia
  42. ^ Pukelsheim, Friedrich (mayo de 1994). "La regla de las tres sigma". The American Statistician . 48 (2): 88–91. doi :10.1080/00031305.1994.10476030. ISSN  0003-1305. S2CID  122587510.
  43. ^ ab DasGupta, A (2000). "Mejores constantes en desigualdades de Chebychev con diversas aplicaciones". Metrika . 5 (1): 185–200. doi :10.1007/s184-000-8316-9. S2CID  121436601.
  44. ^ Steliga, Katarzyna; Szynal, Dominik (2010). "Sobre desigualdades de tipo Markov" (PDF) . Revista internacional de matemáticas puras y aplicadas . 58 (2): 137–152. ISSN  1311-8080 . Consultado el 10 de octubre de 2012 .
  45. ^ Grechuk, B., Molyboha, A., Zabarankin, M. (2010). Desigualdades de Chebyshev con medidas de desviación invariantes de ley, Probabilidad en la ingeniería y las ciencias de la información, 24(1), 145-170.
  46. ^ Godwin HJ (1964) Desigualdades en funciones de distribución. (Capítulo 3) Nueva York, Hafner Pub. Co.
  47. ^ Haldane, JB (1952). "Pruebas simples de bimodalidad y bitangencialidad". Anales de eugenesia . 16 (4): 359–364. doi :10.1111/j.1469-1809.1951.tb02488.x. PMID  14953132.
  48. ^ Kendall MG (1943) La teoría avanzada de la estadística, 1. Londres
  49. ^ He, Simai; Zhang, Jiawei; Zhang, Shuzhong (2010). "Probabilidad de limitación de desviación pequeña: un enfoque de cuarto momento". Matemáticas de la investigación de operaciones . 35 (1): 208–232. doi :10.1287/moor.1090.0438. S2CID  11298475.
  50. ^ Fink, AM; Jodeit, Max Jr. (1984). "Sobre la otra desigualdad de Chebyshev". En Tong, YL; Gupta, Shanti S. (eds.). Desigualdades en estadística y probabilidad . Apuntes de clase del Instituto de Estadística Matemática - Serie de monografías. Vol. 5. págs. 115–120. doi :10.1214/lnms/1215465637. ISBN 978-0-940600-04-1. MR  0789242 . Consultado el 7 de octubre de 2012 .
  51. ^ Niculescu, Constantin P. (2001). "Una extensión de la desigualdad de Chebyshev y su conexión con la desigualdad de Jensen". Journal of Inequalities and Applications . 6 (4): 451–462. CiteSeerX 10.1.1.612.7056 . doi : 10.1155/S1025583401000273 . ISSN  1025-5834 . Consultado el 6 de octubre de 2012 . 
  52. ^ ab Niculescu, Constantin P.; Pečarić, Josip (2010). "La equivalencia de la desigualdad de Chebyshev con la desigualdad de Hermite-Hadamard" (PDF) . Mathematical Reports . 12 (62): 145–156. ISSN  1582-3067 . Consultado el 6 de octubre de 2012 .
  53. ^ Malamud, SM (15 de febrero de 2001). «Algunos complementos a las desigualdades de Jensen y Chebyshev y un problema de W. Walter». Actas de la American Mathematical Society . 129 (9): 2671–2678. doi : 10.1090/S0002-9939-01-05849-X . ISSN:  0002-9939. MR :  1838791. Consultado el 7 de octubre de 2012 .
  54. ^ Cálculo de los límites superiores de confianza para las concentraciones puntuales de exposición en lugares con residuos peligrosos (informe). Oficina de Respuesta a Emergencias y Medidas Correctivas de la Agencia de Protección Ambiental de los Estados Unidos. Diciembre de 2002. Consultado el 5 de agosto de 2016 .

Lectura adicional

  • A. Papoulis (1991), Probabilidad, variables aleatorias y procesos estocásticos , 3.ª ed. McGraw–Hill. ISBN 0-07-100870-5 . págs. 113–114. 
  • G. Grimmett y D. Stirzaker (2001), Probabilidad y procesos aleatorios , 3.ª ed. Oxford. ISBN 0-19-857222-0 . Sección 7.3. 
Retrieved from "https://en.wikipedia.org/w/index.php?title=Chebyshev%27s_inequality&oldid=1246593705"