Límite de probabilidad de que una variable aleatoria esté lejos de su media
En teoría de la probabilidad , la desigualdad de Chebyshev (también llamada desigualdad de Bienaymé-Chebyshev ) proporciona un límite superior a la probabilidad de desviación de una variable aleatoria (con varianza finita) de su media. Más específicamente, la probabilidad de que una variable aleatoria se desvíe de su media en más de es como máximo , donde es cualquier constante positiva y es la desviación estándar (la raíz cuadrada de la varianza).
La regla, que se refiere al rango de desviaciones típicas en torno a la media, suele denominarse en estadística teorema de Chebyshev. La desigualdad tiene una gran utilidad porque se puede aplicar a cualquier distribución de probabilidad en la que se definan la media y la varianza. Por ejemplo, se puede utilizar para demostrar la ley débil de los grandes números .
Su uso práctico es similar a la regla 68-95-99,7 , que se aplica únicamente a distribuciones normales . La desigualdad de Chebyshev es más general, y establece que un mínimo de sólo el 75% de los valores debe estar dentro de dos desviaciones estándar de la media y el 88,89% dentro de tres desviaciones estándar para una amplia gama de diferentes distribuciones de probabilidad . [1] [2]
El término desigualdad de Chebyshev también puede referirse a la desigualdad de Markov , especialmente en el contexto del análisis. Están estrechamente relacionadas y algunos autores se refieren a la desigualdad de Markov como "primera desigualdad de Chebyshev" y a la desigualdad similar a la que se hace referencia en esta página como "segunda desigualdad de Chebyshev".
La desigualdad de Chebyshev es estricta en el sentido de que para cada constante positiva elegida, existe una variable aleatoria tal que la desigualdad es de hecho una igualdad. [3]
Historia
El teorema recibe su nombre del matemático ruso Pafnuty Chebyshev , aunque fue formulado por primera vez por su amigo y colega Irénée-Jules Bienaymé . [4] : 98 El teorema fue demostrado por primera vez por Bienaymé en 1853 [5] y demostrado de manera más general por Chebyshev en 1867. [6] [7] Su estudiante Andrey Markov proporcionó otra prueba en su tesis de doctorado de 1884. [8]
Sólo es útil el caso en el que el lado derecho y la desigualdad son triviales, ya que todas las probabilidades son ≤ 1.
Como ejemplo, el uso de muestra que la probabilidad de que los valores que se encuentran fuera del intervalo no superen . De manera equivalente, implica que la probabilidad de que los valores se encuentren dentro del intervalo (es decir, su "cobertura" ) es al menos .
Dado que puede aplicarse a distribuciones completamente arbitrarias siempre que tengan una media y una varianza finitas conocidas, la desigualdad generalmente da un límite pobre en comparación con lo que podría deducirse si se conocieran más aspectos sobre la distribución involucrada.
a
Mínimo % dentro de k desviaciones estándar de la media
Máximo % más allá de k desviaciones estándar de la media
De manera más general, si g es una función medible de valor real extendida, no negativa y no decreciente, entonces: [ cita requerida ]
Esta afirmación se deduce de la desigualdad de Markov , , con y , ya que en este caso . La afirmación anterior se deduce entonces definiendo como si y en caso contrario.
Ejemplo
Supongamos que seleccionamos aleatoriamente un artículo de revista de una fuente con un promedio de 1000 palabras por artículo, con una desviación estándar de 200 palabras. Podemos entonces inferir que la probabilidad de que tenga entre 600 y 1400 palabras (es decir, dentro de las desviaciones estándar de la media) debe ser al menos del 75%, porque no hay más que la posibilidad de estar fuera de ese rango, por la desigualdad de Chebyshev. Pero si además sabemos que la distribución es normal , podemos decir que hay un 75% de probabilidad de que el recuento de palabras esté entre 770 y 1230 (que es un límite aún más estricto).
Nitidez de los límites
Como se muestra en el ejemplo anterior, el teorema suele proporcionar límites bastante flexibles. Sin embargo, estos límites no se pueden mejorar en general (siendo válidos para distribuciones arbitrarias). Los límites son precisos para el siguiente ejemplo: para cualquier k ≥ 1,
Para esta distribución, la media μ = 0 y la desviación estándar σ = 1/a , así que
La desigualdad de Chebyshev es una igualdad precisamente para aquellas distribuciones que son una transformación lineal de este ejemplo.
Prueba
La desigualdad de Markov establece que para cualquier variable aleatoria de valor real Y y cualquier número positivo a , tenemos . Una forma de demostrar la desigualdad de Chebyshev es aplicar la desigualdad de Markov a la variable aleatoria con :
La desigualdad de Chebyshev se obtiene dividiendo por k 2 σ 2 . Esta prueba también muestra por qué los límites son bastante laxos en casos típicos: la esperanza condicional en el evento donde | X − μ | < kσ se descarta, y el límite inferior de k 2 σ 2 en el evento | X − μ | ≥ kσ puede ser bastante pobre.
Se han desarrollado varias extensiones de la desigualdad de Chebyshev.
Desigualdad de Selberg
Selberg derivó una generalización a intervalos arbitrarios. [11] Supongamos que X es una variable aleatoria con media μ y varianza σ 2 . La desigualdad de Selberg establece [12] que si ,
Cuando , esto se reduce a la desigualdad de Chebyshev. Se sabe que estos son los mejores límites posibles. [13]
Vector de dimensión finita
La desigualdad de Chebyshev se extiende naturalmente al contexto multivariado, donde se tienen n variables aleatorias X i con media μ i y varianza σ i 2 . Entonces se cumple la siguiente desigualdad.
Esta se conoce como la desigualdad de Birnbaum-Raymond-Zuckerman en honor a los autores que la demostraron para dos dimensiones. [14] Este resultado se puede reescribir en términos de vectores X = ( X 1 , X 2 , ...) con media μ = ( μ 1 , μ 2 , ...) , desviación estándar σ = ( σ 1 , σ 2 , ...), en la norma euclidiana || ⋅ || . [15]
donde la distancia de Mahalanobis basada en S se define por
Navarro [17] demostró que estos límites son precisos, es decir, son los mejores límites posibles para esa región cuando solo conocemos la media y la matriz de covarianza de X.
Stellato et al. [18] demostraron que esta versión multivariada de la desigualdad de Chebyshev se puede derivar fácilmente de manera analítica como un caso especial de Vandenberghe et al. [19] donde el límite se calcula resolviendo un programa semidefinido (SDP).
Correlación conocida
Si las variables son independientes esta desigualdad puede agudizarse. [20]
Berge derivó una desigualdad para dos variables correlacionadas X 1 , X 2 . [21] Sea ρ el coeficiente de correlación entre X 1 y X 2 y sea σ i 2 la varianza de X i . Entonces
Este resultado se puede afinar para tener límites diferentes para las dos variables aleatorias [22] y tener límites asimétricos, como en la desigualdad de Selberg. [23]
Olkin y Pratt derivaron una desigualdad para n variables correlacionadas. [24]
donde se toma la suma sobre las n variables y
donde ρ ij es la correlación entre X i y X j .
La desigualdad de Olkin y Pratt fue posteriormente generalizada por Godwin. [25]
Momentos más elevados
Mitzenmacher y Upfal [26] señalan que al aplicar la desigualdad de Markov a la variable no negativa , se puede obtener una familia de límites de cola.
Para n = 2 obtenemos la desigualdad de Chebyshev. Para k ≥ 1, n > 4 y suponiendo que existe el momento n , esta cota es más estricta que la desigualdad de Chebyshev. [ cita requerida ] Esta estrategia, llamada método de momentos , se utiliza a menudo para demostrar cotas de cola.
Momento exponencial
Una desigualdad relacionada, a veces conocida como desigualdad exponencial de Chebyshev [27], es la desigualdad
Esta desigualdad se puede utilizar para obtener desigualdades exponenciales para variables ilimitadas. [28]
Variables acotadas
Si P( x ) tiene un soporte finito basado en el intervalo [ a , b ] , sea M = max(| a |, | b |) donde | x | es el valor absoluto de x . Si la media de P( x ) es cero entonces para todo k > 0 [29]
La segunda de estas desigualdades con r = 2 es el límite de Chebyshev. La primera proporciona un límite inferior para el valor de P( x ).
Muestras finitas
Caso univariado
Saw et al. extendieron la desigualdad de Chebyshev a casos en los que la media y la varianza de la población no se conocen y pueden no existir, pero la media de la muestra y la desviación estándar de la muestra de N muestras se deben emplear para limitar el valor esperado de una nueva extracción de la misma distribución. [30] La siguiente versión más simple de esta desigualdad es dada por Kabán. [31]
donde X es una variable aleatoria que hemos muestreado N veces, m es la media de la muestra, k es una constante y s es la desviación estándar de la muestra.
Esta desigualdad se mantiene incluso cuando los momentos de población no existen, y cuando la muestra está distribuida sólo débilmente de manera intercambiable ; este criterio se cumple para el muestreo aleatorio. Konijn ha determinado una tabla de valores para la desigualdad Saw-Yang-Mo para tamaños de muestra finitos ( N < 100). [32] La tabla permite el cálculo de varios intervalos de confianza para la media, basados en múltiplos, C, del error estándar de la media calculada a partir de la muestra. Por ejemplo, Konijn muestra que para N = 59, el intervalo de confianza del 95 por ciento para la media m es ( m − Cs , m + Cs ) donde C = 4,447 × 1,006 = 4,47 (esto es 2,28 veces mayor que el valor encontrado en el supuesto de normalidad que muestra la pérdida de precisión resultante de la ignorancia de la naturaleza precisa de la distribución).
Se puede derivar una desigualdad equivalente en términos de la media de la muestra, [31]
Konijn ha determinado una tabla de valores para la desigualdad Saw-Yang-Mo para tamaños de muestra finitos ( N < 100). [32]
Para N fijo y m grande la desigualdad Saw-Yang-Mo es aproximadamente [33]
Beasley et al. han sugerido una modificación de esta desigualdad [33]
En las pruebas empíricas, esta modificación es conservadora, pero parece tener un poder estadístico bajo. Su base teórica aún no se ha explorado.
Dependencia del tamaño de la muestra
Los límites que estas desigualdades dan para una muestra finita son menos estrictos que los que da la desigualdad de Chebyshev para una distribución. Para ilustrar esto, supongamos que el tamaño de la muestra es N = 100 y que k = 3. La desigualdad de Chebyshev establece que, como máximo, aproximadamente el 11,11 % de la distribución se encontrará al menos a tres desviaciones estándar de la media. La versión de Kabán de la desigualdad para una muestra finita establece que, como máximo, aproximadamente el 12,05 % de la muestra se encuentra fuera de estos límites. La dependencia de los intervalos de confianza del tamaño de la muestra se ilustra con más detalle a continuación.
Para N = 10, el intervalo de confianza del 95% es aproximadamente ±13,5789 desviaciones estándar.
Para N = 100, el intervalo de confianza del 95% es aproximadamente ±4,9595 desviaciones estándar; el intervalo de confianza del 99% es aproximadamente ±140,0 desviaciones estándar.
Para N = 500, el intervalo de confianza del 95% es aproximadamente ±4,5574 desviaciones estándar; el intervalo de confianza del 99% es aproximadamente ±11,1620 desviaciones estándar.
Para N = 1000, los intervalos de confianza del 95% y 99% son aproximadamente ±4,5141 y aproximadamente ±10,5330 desviaciones estándar respectivamente.
La desigualdad de Chebyshev para la distribución da intervalos de confianza del 95% y 99% de aproximadamente ±4,472 desviaciones estándar y ±10 desviaciones estándar respectivamente.
Desigualdad de Samuelson
Aunque la desigualdad de Chebyshev es el mejor límite posible para una distribución arbitraria, esto no es necesariamente cierto para muestras finitas. La desigualdad de Samuelson establece que todos los valores de una muestra deben estar dentro de √ N − 1 desviaciones estándar de la muestra de la media.
En comparación, la desigualdad de Chebyshev establece que toda la muestra, excepto una fracción 1/N, se encontrará dentro de √ N desviaciones estándar de la media. Dado que hay N muestras, esto significa que ninguna muestra se encontrará fuera de √ N desviaciones estándar de la media, lo que es peor que la desigualdad de Samuelson. Sin embargo, el beneficio de la desigualdad de Chebyshev es que se puede aplicar de manera más general para obtener límites de confianza para rangos de desviaciones estándar que no dependen del número de muestras.
Semivarianzas
Un método alternativo para obtener límites más precisos es mediante el uso de semivarianzas (varianzas parciales). Las semivarianzas superior ( σ + 2 ) e inferior ( σ − 2 ) se definen como
donde m es la media aritmética de la muestra y n es el número de elementos en la muestra.
La varianza de la muestra es la suma de las dos semivarianzas:
En términos de la semivarianza inferior, la desigualdad de Chebyshev puede escribirse [34]
Puesta
La desigualdad de Chebyshev ahora se puede escribir
También se puede derivar un resultado similar para la semivarianza superior.
Si ponemos
La desigualdad de Chebyshev se puede escribir
Dado que σ u 2 ≤ σ 2 , el uso de la semivarianza agudiza la desigualdad original.
Si se sabe que la distribución es simétrica, entonces
y
Este resultado concuerda con el obtenido utilizando variables estandarizadas.
Nota
Se ha descubierto que la desigualdad con la semivarianza más baja es útil para estimar el riesgo a la baja en las finanzas y la agricultura. [34] [35] [36]
Caso multivariado
Stellato et al. [18] simplificaron la notación y extendieron la desigualdad empírica de Chebyshev de Saw et al. [30] al caso multivariado. Sea una variable aleatoria y sea . Extraemos muestras iid de denotadas como . Con base en las primeras muestras, definimos la media empírica como y la covarianza empírica insesgada como . Si es no singular, entonces para todos entonces
Observaciones
En el caso univariado, es decir , esta desigualdad corresponde a la de Saw et al. [30] Además, el lado derecho se puede simplificar acotando superiormente la función de piso con su argumento
Como , el lado derecho tiende a lo que corresponde a la desigualdad multivariada de Chebyshev sobre elipsoides formados según y centrados en .
Límites más definidos
La desigualdad de Chebyshev es importante debido a su aplicabilidad a cualquier distribución. Como resultado de su generalidad, puede que no proporcione (y normalmente no lo hace) un límite tan preciso como los métodos alternativos que se pueden utilizar si se conoce la distribución de la variable aleatoria. Para mejorar la precisión de los límites proporcionados por la desigualdad de Chebyshev, se han desarrollado varios métodos; para una revisión, véase, por ejemplo, [12] [37].
Esta desigualdad se puede utilizar para demostrar una variante de una cola de la desigualdad de Chebyshev con k > 0 [39]
Se sabe que el límite de la variante de una cola es preciso. Para comprobarlo, considere la variable aleatoria X que toma los valores
con probabilidad
con probabilidad
Entonces E( X ) = 0 y E( X 2 ) = σ 2 y P( X < 1) = 1 / (1 + σ 2 ).
Una aplicación: distancia entre la media y la mediana
La variante unilateral se puede utilizar para demostrar la proposición de que para distribuciones de probabilidad que tienen un valor esperado y una mediana , la media y la mediana nunca pueden diferir entre sí en más de una desviación estándar . Para expresar esto en símbolos, sean μ , ν y σ respectivamente la media, la mediana y la desviación estándar. Entonces
No es necesario suponer que la varianza es finita porque esta desigualdad es trivialmente verdadera si la varianza es infinita.
La prueba es la siguiente. Si se establece k = 1 en el enunciado de la desigualdad unilateral, se obtiene:
Cambiando el signo de X y de μ , obtenemos
Como la mediana es por definición cualquier número real m que satisface las desigualdades
Esto implica que la mediana se encuentra dentro de una desviación estándar de la media. También existe una prueba que utiliza la desigualdad de Jensen .
La desigualdad de Bhattacharyya
Bhattacharyya [40] extendió la desigualdad de Cantelli utilizando el tercer y cuarto momento de la distribución.
Sea y la varianza. Sea y .
Si entonces
La necesidad puede requerir que sea razonablemente grande.
En este caso esto se simplifica a
Dado que para cerca de 1, este límite mejora ligeramente el límite de Cantelli, ya que .
gana un factor 2 sobre la desigualdad de Chebyshev.
La desigualdad de Vysochanskij-Petunin generaliza la desigualdad de Gauss, que sólo se cumple para la desviación de la moda de una distribución unimodal, a la desviación de la media o, más generalmente, de cualquier centro. [42] Si X es una distribución unimodal con media μ y varianza σ 2 , entonces la desigualdad establece que
Para distribuciones unimodales simétricas, la mediana y la moda son iguales, por lo que tanto la desigualdad de Vysochanskij-Petunin como la desigualdad de Gauss se aplican al mismo centro. Además, para distribuciones simétricas, los límites unilaterales se pueden obtener observando que
La fracción adicional de la presencia en estos límites de cola conduce a intervalos de confianza mejores que la desigualdad de Chebyshev. Por ejemplo, para cualquier distribución unimodal simétrica, la desigualdad de Vysochanskij-Petunin establece que 4/(9 x 3^2) = 4/81 ≈ 4,9 % de la distribución se encuentra fuera de 3 desviaciones estándar de la moda.
Límites para distribuciones específicas
DasGupta ha demostrado que si se sabe que la distribución es normal [43]
De la desigualdad de DasGupta se desprende que, en el caso de una distribución normal, al menos el 95 % se encuentra dentro de un margen de aproximadamente 2,582 desviaciones estándar de la media. Esta cifra es menos precisa que la verdadera (aproximadamente 1,96 desviaciones estándar de la media).
DasGupta ha determinado un conjunto de mejores límites posibles para una distribución normal para esta desigualdad. [43]
Grechuk et al. desarrollaron un método general para derivar los mejores límites posibles en la desigualdad de Chebyshev para cualquier familia de distribuciones y cualquier medida de riesgo de desviación en lugar de la desviación estándar. En particular, derivaron la desigualdad de Chebyshev para distribuciones con densidades logarítmicas cóncavas . [45]
Desigualdades relacionadas
También se conocen otras desigualdades relacionadas.
Desigualdad de Paley-Zygmund
La desigualdad de Paley-Zygmund proporciona un límite inferior para las probabilidades de cola, a diferencia de la desigualdad de Chebyshev que proporciona un límite superior. [46] Al aplicarla al cuadrado de una variable aleatoria, obtenemos
La transformación de Haldane
Un uso de la desigualdad de Chebyshev en aplicaciones es crear intervalos de confianza para variables con una distribución desconocida. Haldane señaló, [47] utilizando una ecuación derivada por Kendall , [48] que si una variable ( x ) tiene una media cero, varianza unitaria y asimetría finita ( γ ) y curtosis ( κ ), entonces la variable se puede convertir en una puntuación estándar distribuida normalmente ( z ):
Esta transformación puede ser útil como alternativa a la desigualdad de Chebyshev o como complemento de ella para derivar intervalos de confianza para variables con distribuciones desconocidas.
Si bien esta transformación puede ser útil para distribuciones moderadamente sesgadas y/o curtósicas, funciona mal cuando la distribución está marcadamente sesgada y/o curtósica.
Desigualdad de He, Zhang y Zhang
Para cualquier colección de n variables aleatorias independientes no negativas Xi con expectativa 1 [49]
Desigualdad integral de Chebyshev
Hay una segunda desigualdad (menos conocida) que también lleva el nombre de Chebyshev [50].
Si f , g : [ a , b ] → R son dos funciones monótonas de la misma monotonía, entonces
Si f y g son de monotonía opuesta, entonces la desigualdad anterior funciona en sentido inverso.
La Agencia de Protección Ambiental ha sugerido las mejores prácticas para el uso de la desigualdad de Chebyshev para estimar intervalos de confianza. [54]
^ Kvanli, Alan H.; Pavur, Robert J.; Keeling, Kellie B. (2006). Estadísticas gerenciales concisas. cEngage Learning . págs. 81–82. ISBN978-0-324-22388-0.
^ Chernick, Michael R. (2011). Fundamentos de bioestadística para médicos, enfermeras y clínicos. John Wiley & Sons . págs. 49-50. ISBN978-0-470-64185-9.
^ "¿Término de error de la desigualdad de Chebyshev?". Mathematics Stack Exchange . Consultado el 11 de diciembre de 2023 .
^ Knuth, Donald (1997). El arte de la programación informática: algoritmos fundamentales, volumen 1 (3.ª ed.). Reading, Massachusetts: Addison–Wesley. ISBN978-0-201-89683-1Archivado desde el original el 26 de febrero de 2009 . Consultado el 1 de octubre de 2012 .
^ Bienaymé, I.-J. (1853). "Consideraciones sobre el descubrimiento de Laplace". Cuentas Rendus de la Academia de Ciencias . 37 : 309–324.
^ Chebichef, P. (1867). "Des valeurs moyennes". Revista de Mathématiques Pures et Appliquées . 2. 12 : 177–184.
^ Routledge, Richard. Desigualdad de Chebyshev. Enciclopedia Británica.
^ Markov A. (1884) Sobre ciertas aplicaciones de fracciones continuas algebraicas, tesis doctoral, San Petersburgo
^ Feller, W., 1968. Introducción a la teoría de la probabilidad y sus aplicaciones, vol. 1, pág. 227 (Wiley, Nueva York).
^ Uhl, Roland (2023). Charakterisierung des Erwartungswertes am Graphen der Verteilungsfunktion [ Caracterización del valor esperado en la gráfica de la función de distribución acumulativa ] (PDF) . Technische Hochschule Brandeburgo. doi : 10.25933/opus4-2986 .pág. 5.
^ Selberg, Henrik L. (1940). "Zwei Ungleichungen zur Ergänzung des Tchebycheffschen Lemmas" [Dos desigualdades que complementan el lema de Tchebycheff]. Skandinavisk Aktuarietidskrift (Revista actuarial escandinava) (en alemán). 1940 (3–4): 121–125. doi :10.1080/03461238.1940.10404804. ISSN 0346-1238. OCLC 610399869.
^ ab Godwin, HJ (septiembre de 1955). "Sobre las generalizaciones de la desigualdad de Chebychef". Revista de la Asociación Estadounidense de Estadística . 50 (271): 923–945. doi :10.1080/01621459.1955.10501978. ISSN 0162-1459.
^ Conlon, J.; Dulá, JH "Una derivación geométrica e interpretación de la desigualdad de Chebyscheff" (PDF) . Consultado el 2 de octubre de 2012 .
^ Birnbaum, ZW; Raymond, J.; Zuckerman, HS (1947). "Una generalización de la desigualdad de Tshebyshev a dos dimensiones". Anales de estadística matemática . 18 (1): 70–79. doi : 10.1214/aoms/1177730493 . ISSN: 0003-4851. MR: 0019849. Zbl : 0032.03402 . Consultado el 7 de octubre de 2012 .
^ Ferentinos, K (1982). "Sobre las desigualdades tipo Tchebycheff". Trabajos Estadıst Investigación Oper . 33 : 125-132. doi :10.1007/BF02888707. S2CID 123762564.
^ Xinjia Chen (2007). "Una nueva generalización de la desigualdad de Chebyshev para vectores aleatorios". arXiv : 0707.0805v2 [math.ST].
^ Jorge Navarro (2014). "¿Se pueden alcanzar los límites en la desigualdad multivariante de Chebyshev?". Statistics and Probability Letters . 91 : 1–5. doi :10.1016/j.spl.2014.03.028.
^ ab Stellato, Bartolomeo; Parys, Bart PG Van; Goulart, Paul J. (31 de mayo de 2016). "Desigualdad de Chebyshev multivariada con media y varianza estimadas". The American Statistician . 71 (2): 123–127. arXiv : 1509.08398 . doi :10.1080/00031305.2016.1186559. ISSN 0003-1305. S2CID 53407286.
^ Vandenberghe, L.; Boyd, S.; Comanor, K. (1 de enero de 2007). "Límites de Chebyshev generalizados mediante programación semidefinida". SIAM Review . 49 (1): 52–64. Bibcode :2007SIAMR..49...52V. CiteSeerX 10.1.1.126.9105 . doi :10.1137/S0036144504440543. ISSN 0036-1445.
^ Kotz, Samuel ; Balakrishnan, N.; Johnson, Norman L. (2000). Distribuciones multivariadas continuas, volumen 1, modelos y aplicaciones (2.ª ed.). Boston [ua]: Houghton Mifflin. ISBN978-0-471-18387-7. Recuperado el 7 de octubre de 2012 .
^ Berge, PO (1938). "Una nota sobre una forma del teorema de Chebycheff para dos variables". Biometrika . 29 (3/4): 405–406. doi :10.2307/2332015. JSTOR 2332015.
^ Lal DN (1955) Una nota sobre una forma de la desigualdad de Chebycheff para dos o más variables. Sankhya 15(3):317–320
^ Isii K. (1959) Sobre un método para generalizaciones de la desigualdad de Chebycheff. Ann Inst Stat Math 10: 65–88
^ Olkin, Ingram ; Pratt, John W. (1958). "Una desigualdad de Tchebycheff multivariante". Anales de estadística matemática . 29 (1): 226–234. doi : 10.1214/aoms/1177706720 . MR 0093865. Zbl 0085.35204.
^ Godwin HJ (1964) Desigualdades en funciones de distribución. Nueva York, Hafner Pub. Co.
^ Mitzenmacher, Michael ; Upfal, Eli (enero de 2005). Probabilidad y computación: algoritmos aleatorios y análisis probabilístico (edición reimpresa). Cambridge [ua]: Cambridge Univ. Press. ISBN978-0-521-83540-4. Recuperado el 6 de octubre de 2012 .
^ Baranoski, Gladimir VG; Rokne, Jon G.; Xu, Guangwu (15 de mayo de 2001). "Aplicación de la desigualdad exponencial de Chebyshev al cálculo no determinista de factores de forma". Journal of Quantitative Spectroscopy and Radiative Transfer . 69 (4): 199–200. Bibcode :2001JQSRT..69..447B. doi :10.1016/S0022-4073(00)00095-9.(las referencias de este artículo están corregidas por Baranoski, Gladimir VG; Rokne, Jon G.; Guangwu Xu (15 de enero de 2002). "Corrigendum a: 'Aplicación de la desigualdad exponencial de Chebyshev al cálculo no determinista de factores de forma'". Journal of Quantitative Spectroscopy and Radiative Transfer . 72 (2): 199–200. Bibcode :2002JQSRT..72..199B. doi : 10.1016/S0022-4073(01)00171-6 .)
^ Dufour (2003) Propiedades de los momentos de variables aleatorias
^ abc Saw, John G.; Yang, Mark CK; Mo, Tse Chin (1984). "Desigualdad de Chebyshev con media y varianza estimadas". El estadístico estadounidense . 38 (2): 130–2. doi :10.2307/2683249. ISSN 0003-1305. JSTOR 2683249.
^ ab Kabán, Ata (2012). "Detección no paramétrica de distancias sin sentido en datos de alta dimensión". Estadística y Computación . 22 (2): 375–85. doi :10.1007/s11222-011-9229-0. S2CID 6018114.
^ ab Konijn, Hendrik S. (febrero de 1987). "Intervalos de predicción sin distribución y otros". The American Statistician . 41 (1): 11–15. doi :10.2307/2684311. JSTOR 2684311.
^ ab Beasley, T. Mark; Page, Grier P.; Brand, Jaap PL; Gadbury, Gary L.; Mountz, John D.; Allison, David B. (enero de 2004). "Desigualdad de Chebyshev para pruebas no paramétricas con N y α pequeños en la investigación de microarrays". Revista de la Royal Statistical Society . C (Estadística aplicada). 53 (1): 95–108. doi : 10.1111/j.1467-9876.2004.00428.x . ISSN 1467-9876. S2CID 122678278.
^ ab Berck, Peter ; Hihn, Jairus M. (mayo de 1982). "Uso de la semivarianza para estimar reglas de seguridad ante todo". American Journal of Agricultural Economics . 64 (2): 298–300. doi :10.2307/1241139. ISSN 0002-9092. JSTOR 1241139.
^ Nantell, Timothy J.; Price, Barbara (junio de 1979). "Una comparación analítica de las teorías de los mercados de capitales de varianza y semivarianza". Revista de análisis financiero y cuantitativo . 14 (2): 221–42. doi :10.2307/2330500. JSTOR 2330500. S2CID 154652959.
^ Neave, Edwin H.; Ross, Michael N.; Yang, Jun (2009). "Distinguir el potencial alcista del riesgo bajista". Management Research News . 32 (1): 26–36. doi :10.1108/01409170910922005. ISSN 0140-9174.
^ Savage, I. Richard. "Desigualdades de probabilidad del tipo Chebycheff". Revista de investigación de la Oficina Nacional de Normas-B. Matemáticas y física matemática B 65 (1961): 211-222
^ Cantelli F. (1910) Intorno ad un teorema fondamentale della teoria del rischio. Bolletino dell Associazione degli Attuari Italiani
^ Grimmett y Stirzaker, problema 7.11.9. Se pueden encontrar varias pruebas de este resultado en Chebyshev's Inequalities Archivado el 24 de febrero de 2019 en Wayback Machine por AG McDowell.
^ Bhattacharyya, BB (1987). "Desigualdad unilateral de Chebyshev cuando se conocen los primeros cuatro momentos". Communications in Statistics – Theory and Methods . 16 (9): 2789–91. doi :10.1080/03610928708829540. ISSN 0361-0926.
^ Gauss CF Theoria combinationis observationum erroribus minimis obnoxiae. Pars prior. Pars posterior. Supplementum. Teoría de la combinación de observaciones menos sujetas a errores. Primera parte. Segunda parte. Suplemento. 1995. Traducido por GW Stewart. Serie Classics in Applied Mathematics, Society for Industrial and Applied Mathematics, Filadelfia
^ Pukelsheim, Friedrich (mayo de 1994). "La regla de las tres sigma". The American Statistician . 48 (2): 88–91. doi :10.1080/00031305.1994.10476030. ISSN 0003-1305. S2CID 122587510.
^ ab DasGupta, A (2000). "Mejores constantes en desigualdades de Chebychev con diversas aplicaciones". Metrika . 5 (1): 185–200. doi :10.1007/s184-000-8316-9. S2CID 121436601.
^ Steliga, Katarzyna; Szynal, Dominik (2010). "Sobre desigualdades de tipo Markov" (PDF) . Revista internacional de matemáticas puras y aplicadas . 58 (2): 137–152. ISSN 1311-8080 . Consultado el 10 de octubre de 2012 .
^ Grechuk, B., Molyboha, A., Zabarankin, M. (2010). Desigualdades de Chebyshev con medidas de desviación invariantes de ley, Probabilidad en la ingeniería y las ciencias de la información, 24(1), 145-170.
^ Godwin HJ (1964) Desigualdades en funciones de distribución. (Capítulo 3) Nueva York, Hafner Pub. Co.
^ Haldane, JB (1952). "Pruebas simples de bimodalidad y bitangencialidad". Anales de eugenesia . 16 (4): 359–364. doi :10.1111/j.1469-1809.1951.tb02488.x. PMID 14953132.
^ Kendall MG (1943) La teoría avanzada de la estadística, 1. Londres
^ He, Simai; Zhang, Jiawei; Zhang, Shuzhong (2010). "Probabilidad de limitación de desviación pequeña: un enfoque de cuarto momento". Matemáticas de la investigación de operaciones . 35 (1): 208–232. doi :10.1287/moor.1090.0438. S2CID 11298475.
^ Fink, AM; Jodeit, Max Jr. (1984). "Sobre la otra desigualdad de Chebyshev". En Tong, YL; Gupta, Shanti S. (eds.). Desigualdades en estadística y probabilidad . Apuntes de clase del Instituto de Estadística Matemática - Serie de monografías. Vol. 5. págs. 115–120. doi :10.1214/lnms/1215465637. ISBN978-0-940600-04-1. MR 0789242 . Consultado el 7 de octubre de 2012 .
^ Niculescu, Constantin P. (2001). "Una extensión de la desigualdad de Chebyshev y su conexión con la desigualdad de Jensen". Journal of Inequalities and Applications . 6 (4): 451–462. CiteSeerX 10.1.1.612.7056 . doi : 10.1155/S1025583401000273 . ISSN 1025-5834 . Consultado el 6 de octubre de 2012 .
^ ab Niculescu, Constantin P.; Pečarić, Josip (2010). "La equivalencia de la desigualdad de Chebyshev con la desigualdad de Hermite-Hadamard" (PDF) . Mathematical Reports . 12 (62): 145–156. ISSN 1582-3067 . Consultado el 6 de octubre de 2012 .
^ Malamud, SM (15 de febrero de 2001). «Algunos complementos a las desigualdades de Jensen y Chebyshev y un problema de W. Walter». Actas de la American Mathematical Society . 129 (9): 2671–2678. doi : 10.1090/S0002-9939-01-05849-X . ISSN: 0002-9939. MR : 1838791. Consultado el 7 de octubre de 2012 .
^ Cálculo de los límites superiores de confianza para las concentraciones puntuales de exposición en lugares con residuos peligrosos (informe). Oficina de Respuesta a Emergencias y Medidas Correctivas de la Agencia de Protección Ambiental de los Estados Unidos. Diciembre de 2002. Consultado el 5 de agosto de 2016 .
Lectura adicional
A. Papoulis (1991), Probabilidad, variables aleatorias y procesos estocásticos , 3.ª ed. McGraw–Hill. ISBN 0-07-100870-5 . págs. 113–114.
G. Grimmett y D. Stirzaker (2001), Probabilidad y procesos aleatorios , 3.ª ed. Oxford. ISBN 0-19-857222-0 . Sección 7.3.
Enlaces externos
Wikimedia Commons alberga una categoría multimedia sobre Desigualdad de Chebyshev .