Oblicuidad

Medida de la asimetría de variables aleatorias

Ejemplo de distribución con asimetría positiva. Estos datos proceden de experimentos sobre el crecimiento del pasto de trigo.

En teoría de probabilidad y estadística , la asimetría es una medida de la asimetría de la distribución de probabilidad de una variable aleatoria de valor real respecto de su media. El valor de asimetría puede ser positivo, cero, negativo o indefinido.

En el caso de una distribución unimodal (una distribución con un único pico), una asimetría negativa suele indicar que la cola está en el lado izquierdo de la distribución, y una asimetría positiva indica que la cola está en el lado derecho. En los casos en los que una cola es larga pero la otra es gruesa, la asimetría no obedece a una regla simple. Por ejemplo, un valor cero en la asimetría significa que las colas en ambos lados de la media se equilibran en general; este es el caso de una distribución simétrica, pero también puede ser cierto para una distribución asimétrica en la que una cola es larga y delgada, y la otra es corta pero gruesa. Por lo tanto, juzgar la simetría de una distribución dada utilizando solo su asimetría es arriesgado; debe tenerse en cuenta la forma de la distribución.

Introducción

Considere las dos distribuciones de la figura que se muestra a continuación. Dentro de cada gráfico, los valores del lado derecho de la distribución se estrechan de manera diferente a los valores del lado izquierdo. Estos lados estrechos se denominan colas y brindan un medio visual para determinar cuál de los dos tipos de asimetría tiene una distribución:

  1. sesgo negativo : la cola izquierda es más larga; la masa de la distribución se concentra a la derecha de la figura. Se dice que la distribución estásesgada a la izquierda,con cola izquierdaosesgada a la izquierda, a pesar de que la curva en sí parece estar sesgada o inclinada hacia la derecha;izquierda,en cambio, se refiere a que la cola izquierda se extiende y, a menudo, la media está sesgada a la izquierda de un centro típico de los datos. Una distribución sesgada a la izquierda suele aparecer como unainclinada a la derecha.[1]
  2. sesgo positivo : la cola derecha es más larga; la masa de la distribución se concentra a la izquierda de la figura. Se dice que la distribución essesgada a la derecha,de cola derechaosesgada a la derecha, a pesar de que la curva en sí parece estar sesgada o inclinada hacia la izquierda;derecha,en cambio, se refiere a que la cola derecha se extiende y, a menudo, la media está sesgada a la derecha de un centro típico de los datos. Una distribución sesgada a la derecha suele aparecer como unainclinada hacia la izquierda.[1]

La asimetría en una serie de datos a veces se puede observar no solo gráficamente sino mediante una simple inspección de los valores. Por ejemplo, considere la secuencia numérica (49, 50, 51), cuyos valores se distribuyen uniformemente alrededor de un valor central de 50. Podemos transformar esta secuencia en una distribución sesgada negativamente agregando un valor muy por debajo de la media, que probablemente sea un valor atípico negativo , p. ej. (40, 49, 50, 51). Por lo tanto, la media de la secuencia se convierte en 47,5 y la mediana es 49,5. Con base en la fórmula de sesgo no paramétrico , definido como el sesgo es negativo. De manera similar, podemos hacer que la secuencia sea sesgada positivamente agregando un valor muy por encima de la media, que probablemente sea un valor atípico positivo, p. ej. (49, 50, 51, 60), donde la media es 52,5 y la mediana es 50,5. ( micras no ) / σ , {\displaystyle (\mu -\nu )/\sigma ,}

Como se mencionó anteriormente, una distribución unimodal con un valor de asimetría cero no implica necesariamente que dicha distribución sea simétrica. Sin embargo, una distribución unimodal o multimodal simétrica siempre tiene una asimetría cero.

Ejemplo de una distribución asimétrica con asimetría cero. Esta figura sirve como contraejemplo de que una asimetría cero no implica necesariamente una distribución simétrica. (La asimetría se calculó mediante el coeficiente de asimetría de momento de Pearson).

Relación entre la media y la mediana

La asimetría no está directamente relacionada con la relación entre la media y la mediana: una distribución con asimetría negativa puede tener su media mayor o menor que la mediana, y lo mismo ocurre con una asimetría positiva. [2]

Una relación general de media y mediana bajo una distribución unimodal sesgada de manera diferente.

En la noción más antigua de asimetría no paramétrica , definida como donde es la media , es la mediana y es la desviación estándar , la asimetría se define en términos de esta relación: la asimetría no paramétrica positiva/derecha significa que la media es mayor que (a la derecha de) la mediana, mientras que la asimetría no paramétrica negativa/izquierda significa que la media es menor que (a la izquierda de) la mediana. Sin embargo, la definición moderna de asimetría y la definición no paramétrica tradicional no siempre tienen el mismo signo: si bien coinciden para algunas familias de distribuciones, difieren en algunos de los casos, y combinarlas es engañoso. ( micras no ) / σ , {\displaystyle (\mu -\nu )/\sigma ,} micras {\estilo de visualización \mu} no {\estilo de visualización \nu} σ {\estilo de visualización \sigma}

Si la distribución es simétrica , entonces la media es igual a la mediana y la distribución tiene asimetría cero. [3] Si la distribución es simétrica y unimodal , entonces la media = mediana = moda . Este es el caso del lanzamiento de una moneda o la serie 1,2,3,4,... Sin embargo, tenga en cuenta que lo inverso no es cierto en general, es decir, la asimetría cero (definida a continuación) no implica que la media sea igual a la mediana.

Un artículo de revista de 2005 señala: [2]

Muchos libros de texto enseñan una regla empírica que establece que la media está a la derecha de la mediana en caso de asimetría hacia la derecha, y a la izquierda de la mediana en caso de asimetría hacia la izquierda. Esta regla falla con una frecuencia sorprendente. Puede fallar en distribuciones multimodales o en distribuciones en las que una cola es larga pero la otra es pesada . Sin embargo, lo más común es que la regla falle en distribuciones discretas en las que las áreas a la izquierda y a la derecha de la mediana no son iguales. Tales distribuciones no solo contradicen la relación que aparece en los libros de texto entre la media, la mediana y la asimetría, sino que también contradicen la interpretación que se hace de la mediana en los libros de texto.

Distribución de residentes adultos en hogares de EE. UU.

Por ejemplo, en la distribución de los residentes adultos en los hogares estadounidenses, la asimetría es hacia la derecha. Sin embargo, dado que la mayoría de los casos es menor o igual que la moda, que también es la mediana, la media se ubica en la cola izquierda más pesada. Como resultado, la regla general de que la media está a la derecha de la mediana en caso de asimetría hacia la derecha falló. [2]

Definición

Coeficiente de asimetría del momento de Fisher

La asimetría de una variable aleatoria X es el tercer momento estandarizado , definido como: [4] [5] gamma 1 {\displaystyle \gamma_{1}} micras ~ 3 {\displaystyle {\tilde {\mu }}_{3}}

gamma 1 := micras ~ 3 = mi [ ( incógnita micras σ ) 3 ] = micras 3 σ 3 = mi [ ( incógnita micras ) 3 ] ( mi [ ( incógnita micras ) 2 ] ) 3 / 2 = k 3 k 2 3 / 2 {\displaystyle \gamma _{1}:={\tilde {\mu }}_{3}=\nombredeloperador {E} \left[\left({\frac {X-\mu }{\sigma }}\right)^{3}\right]={\frac {\mu _{3}}{\sigma ^{3}}}={\frac {\nombredeloperador {E} \left[(X-\mu )^{3}\right]}{(\nombredeloperador {E} \left[(X-\mu )^{2}\right])^{3/2}}}={\frac {\kappa _{3}}{\kappa _{2}^{3/2}}}}

donde μ es la media, σ es la desviación estándar , E es el operador de expectativa , μ 3 es el tercer momento central y κ t son los t -ésimos cumulantes . A veces se lo denomina coeficiente de asimetría del momento de Pearson , [5] o simplemente coeficiente de asimetría del momento , [4] pero no debe confundirse con otras estadísticas de asimetría de Pearson (ver más abajo). La última igualdad expresa la asimetría en términos de la relación entre el tercer cumulante κ 3 y la 1,5ª potencia del segundo cumulante κ 2. Esto es análogo a la definición de curtosis como el cuarto cumulante normalizado por el cuadrado del segundo cumulante. La asimetría también se denota a veces como Skew[ X ].

Si σ es finito y μ también es finito, entonces la asimetría se puede expresar en términos del momento no central E[ X 3 ] desarrollando la fórmula anterior:

micras ~ 3 = mi [ ( incógnita micras σ ) 3 ] = mi [ incógnita 3 ] 3 micras mi [ incógnita 2 ] + 3 micras 2 mi [ incógnita ] micras 3 σ 3 = mi [ incógnita 3 ] 3 micras ( mi [ incógnita 2 ] micras mi [ incógnita ] ) micras 3 σ 3 = mi [ incógnita 3 ] 3 micras σ 2 micras 3 σ 3 . {\displaystyle {\begin{aligned}{\tilde {\mu }}_{3}&=\operadornombre {E} \left[\left({\frac {X-\mu }{\sigma }}\right)^{3}\right]\\&={\frac {\operadornombre {E} [X^{3}]-3\mu \operadornombre {E} [X^{2}]+3\mu ^{2}\operadornombre {E} [X]-\mu ^{3}}{\sigma ^{3}}}\\&={\frac {\operadornombre {E} [X^{3}]-3\mu (\operadornombre {E} [X^{2}]-\mu \operadornombre {E} [X])-\mu ^{3}}{\sigma ^{3}}}\\&={\frac {\operadornombre {E} [X^{3}]-3\mu \sigma ^{2}-\mu ^{3}}{\sigma ^{3}}}.\end{aligned}}}

Ejemplos

La asimetría puede ser infinita, como cuando

Pr [ incógnita > incógnita ] = incógnita 2  para  incógnita > 1 ,   Pr [ incógnita < 1 ] = 0 {\displaystyle \Pr \left[X>x\right]=x^{-2}{\mbox{ for }}x>1,\ \Pr[X<1]=0}

donde los terceros cumulantes son infinitos, o como cuando

Pr [ X < x ] = ( 1 x ) 3 / 2  for negative  x  and  Pr [ X > x ] = ( 1 + x ) 3 / 2  for positive  x . {\displaystyle \Pr[X<x]=(1-x)^{-3}/2{\mbox{ for negative }}x{\mbox{ and }}\Pr[X>x]=(1+x)^{-3}/2{\mbox{ for positive }}x.}

donde el tercer cumulante no está definido.

Algunos ejemplos de distribuciones con asimetría finita incluyen los siguientes.

Asimetría de la muestra

Para una muestra de n valores, dos estimadores naturales de la asimetría poblacional son [6]

b 1 = m 3 s 3 = 1 n i = 1 n ( x i x ¯ ) 3 [ 1 n 1 i = 1 n ( x i x ¯ ) 2 ] 3 / 2 {\displaystyle b_{1}={\frac {m_{3}}{s^{3}}}={\frac {{\tfrac {1}{n}}\sum _{i=1}^{n}(x_{i}-{\overline {x}})^{3}}{\left[{\tfrac {1}{n-1}}\sum _{i=1}^{n}(x_{i}-{\overline {x}})^{2}\right]^{3/2}}}}

y

g 1 = m 3 m 2 3 / 2 = 1 n i = 1 n ( x i x ¯ ) 3 [ 1 n i = 1 n ( x i x ¯ ) 2 ] 3 / 2 , {\displaystyle g_{1}={\frac {m_{3}}{m_{2}^{3/2}}}={\frac {{\tfrac {1}{n}}\sum _{i=1}^{n}(x_{i}-{\overline {x}})^{3}}{\left[{\tfrac {1}{n}}\sum _{i=1}^{n}(x_{i}-{\overline {x}})^{2}\right]^{3/2}}},}

donde es la media de la muestra , s es la desviación estándar de la muestra , m 2 es el segundo momento central de la muestra (sesgado) y m 3 es el tercer momento central de la muestra (sesgado). [6] es un método de estimador de momentos. x ¯ {\displaystyle {\overline {x}}} g 1 {\displaystyle g_{1}}

Otra definición común de la asimetría de la muestra es [6] [7]

G 1 = k 3 k 2 3 / 2 = n 2 ( n 1 ) ( n 2 ) b 1 = n ( n 1 ) n 2 g 1 , {\displaystyle {\begin{aligned}G_{1}&={\frac {k_{3}}{k_{2}^{3/2}}}={\frac {n^{2}}{(n-1)(n-2)}}\;b_{1}={\frac {\sqrt {n(n-1)}}{n-2}}\;g_{1},\\\end{aligned}}}

donde es el estimador simétrico insesgado único del tercer cumulante y es el estimador simétrico insesgado del segundo cumulante (es decir, la varianza de la muestra ). Este coeficiente de momento estandarizado de Fisher-Pearson ajustado es la versión que se encuentra en Excel y varios paquetes estadísticos, incluidos Minitab , SAS y SPSS . [7] k 3 {\displaystyle k_{3}} k 2 = s 2 {\displaystyle k_{2}=s^{2}} G 1 {\displaystyle G_{1}}

Suponiendo que la variable aleatoria subyacente se distribuye normalmente, se puede demostrar que las tres razones , y son estimadores insesgados y consistentes de la asimetría de la población , con , es decir, sus distribuciones convergen a una distribución normal con media 0 y varianza 6 ( Fisher , 1930). [6] La varianza de la asimetría de la muestra es, por tanto, aproximadamente para muestras suficientemente grandes. Más precisamente, en una muestra aleatoria de tamaño n de una distribución normal, [8] [9] X {\displaystyle X} b 1 {\displaystyle b_{1}} g 1 {\displaystyle g_{1}} G 1 {\displaystyle G_{1}} γ 1 = 0 {\displaystyle \gamma _{1}=0} n b 1 d N ( 0 , 6 ) {\displaystyle {\sqrt {n}}b_{1}\mathrel {\xrightarrow {d} } N(0,6)} 6 / n {\displaystyle 6/n}

var ( G 1 ) = 6 n ( n 1 ) ( n 2 ) ( n + 1 ) ( n + 3 ) . {\displaystyle \operatorname {var} (G_{1})={\frac {6n(n-1)}{(n-2)(n+1)(n+3)}}.}

En muestras normales, tiene la varianza más pequeña de los tres estimadores, con [6] b 1 {\displaystyle b_{1}}

var ( b 1 ) < var ( g 1 ) < var ( G 1 ) . {\displaystyle \operatorname {var} (b_{1})<\operatorname {var} (g_{1})<\operatorname {var} (G_{1}).}

Para distribuciones no normales, , y son generalmente estimadores sesgados de la asimetría de la población ; sus valores esperados pueden incluso tener el signo opuesto a la asimetría verdadera. Por ejemplo, una distribución mixta que consiste en gaussianas muy delgadas centradas en −99, 0,5 y 2 con pesos 0,01, 0,66 y 0,33 tiene una asimetría de aproximadamente −9,77, pero en una muestra de 3 tiene un valor esperado de aproximadamente 0,32, ya que generalmente las tres muestras están en la parte de valor positivo de la distribución, que está sesgada en el sentido opuesto. b 1 {\displaystyle b_{1}} g 1 {\displaystyle g_{1}} G 1 {\displaystyle G_{1}} γ 1 {\displaystyle \gamma _{1}} γ 1 {\displaystyle \gamma _{1}} G 1 {\displaystyle G_{1}}

Aplicaciones

La asimetría es una estadística descriptiva que se puede utilizar junto con el histograma y el gráfico de cuantiles normal para caracterizar los datos o la distribución.

La asimetría indica la dirección y la magnitud relativa de la desviación de una distribución respecto de la distribución normal.

Con una asimetría pronunciada, los procedimientos de inferencia estadística estándar, como un intervalo de confianza para una media, no solo serán incorrectos, en el sentido de que el nivel de cobertura real diferirá del nivel nominal (por ejemplo, 95%), sino que también darán como resultado probabilidades de error desiguales en cada lado.

La asimetría se puede utilizar para obtener probabilidades aproximadas y cuantiles de distribuciones (como el valor en riesgo en finanzas) a través de la expansión de Cornish-Fisher .

Muchos modelos asumen una distribución normal, es decir, los datos son simétricos respecto de la media. La distribución normal tiene una asimetría de cero, pero en realidad, los puntos de datos pueden no ser perfectamente simétricos. Por lo tanto, comprender la asimetría del conjunto de datos indica si las desviaciones respecto de la media serán positivas o negativas.

La prueba K-cuadrado de D'Agostino es una prueba de normalidad de bondad de ajuste basada en la asimetría y la curtosis de la muestra.

Otras medidas de asimetría

Comparación de la media , la mediana y la moda de dos distribuciones log-normales con las mismas medianas y diferentes asimetrías.

Se han utilizado otras medidas de asimetría, incluidos cálculos más simples sugeridos por Karl Pearson [10] (que no deben confundirse con el coeficiente de asimetría de momento de Pearson, véase más arriba). Estas otras medidas son:

Primer coeficiente de asimetría de Pearson (asimetría modal)

La asimetría del modo de Pearson, [11] o primer coeficiente de asimetría, se define como

mediamoda/desviación estándar .

Segundo coeficiente de asimetría de Pearson (asimetría media)

La asimetría mediana de Pearson, o segundo coeficiente de asimetría, [12] [13] se define como

3 ( mediamediana )/desviación estándar .

Que es un múltiplo simple del sesgo no paramétrico .

Medidas basadas en cuantiles

La medida de asimetría de Bowley (de 1901), [14] [15] también llamada coeficiente de Yule (de 1912) [16] [17] se define como:

Q ( 3 / 4 ) + Q ( 1 / 4 ) 2 Q ( 1 / 2 ) Q ( 3 / 4 ) Q ( 1 / 4 ) 2 = Q ( 3 / 4 ) + Q ( 1 / 4 ) 2 Q ( 1 / 2 ) Q ( 3 / 4 ) Q ( 1 / 4 ) , {\displaystyle {\frac {{\frac {{{Q}(3/4)}+{{Q}(1/4)}}{2}}-{{Q}(1/2)}}{\frac {{{Q}(3/4)}-{{Q}(1/4)}}{2}}}={\frac {{{Q}(3/4)}+{{Q}(1/4)}-2{{Q}(1/2)}}{{{Q}(3/4)}-{{Q}(1/4)}}},}

donde Q es la función cuantil (es decir, la inversa de la función de distribución acumulativa ). El numerador es la diferencia entre el promedio de los cuartiles superior e inferior (una medida de ubicación) y la mediana (otra medida de ubicación), mientras que el denominador es el rango semiintercuartil , que para distribuciones simétricas es igual a la medida de dispersión MAD . [ cita requerida ] ( Q ( 3 / 4 ) Q ( 1 / 4 ) ) / 2 {\displaystyle ({Q}(3/4)}-{{Q}(1/4))/2}

Otros nombres para esta medida son la medida de asimetría de Galton, [18] el índice de Yule-Kendall [19] y la asimetría cuartil, [20]

De manera similar, la medida de asimetría de Kelly se define como [21]

Q ( 9 / 10 ) + Q ( 1 / 10 ) 2 Q ( 1 / 2 ) Q ( 9 / 10 ) Q ( 1 / 10 ) . {\displaystyle {\frac {{{Q}(9/10)}+{{Q}(1/10)}-2{{Q}(1/2)}}{{{Q}(9/10)}-{{Q}(1/10)}}}.}

Groeneveld, RA y Meeden, G. (1984) describieron una formulación más general de una función de asimetría: [22] [23] [24]

γ ( u ) = Q ( u ) + Q ( 1 u ) 2 Q ( 1 / 2 ) Q ( u ) Q ( 1 u ) {\displaystyle \gamma (u)={\frac {Q(u)+Q(1-u)-2Q(1/2)}{Q(u)-Q(1-u)}}}

La función γ ( u ) satisface −1 ≤  γ ( u ) ≤ 1 y está bien definida sin requerir la existencia de ningún momento de la distribución. [22] La medida de asimetría de Bowley es γ( u ) evaluada en u  = 3/4 mientras que la medida de asimetría de Kelly es γ( u ) evaluada en u  = 9/10. Esta definición conduce a una medida general de asimetría correspondiente [23] definida como el supremo de esta en el rango 1/2 ≤  u  < 1. Otra medida se puede obtener integrando el numerador y el denominador de esta expresión. [22]

Las medidas de asimetría basadas en cuantiles son fáciles de interpretar a primera vista, pero a menudo muestran variaciones muestrales significativamente mayores que los métodos basados ​​en momentos. Esto significa que, a menudo, las muestras de una distribución simétrica (como la distribución uniforme) tienen una gran asimetría basada en cuantiles, simplemente por casualidad.

Coeficiente de Groeneveld y Meeden

Groeneveld y Meeden han sugerido, como medida alternativa de asimetría, [22]

skew ( X ) = ( μ ν ) E ( | X ν | ) , {\displaystyle \operatorname {skew} (X)={\frac {(\mu -\nu )}{\operatorname {E} (|X-\nu |)}},}

donde μ es la media, ν es la mediana, |...| es el valor absoluto y E() es el operador de expectativa. Esto está estrechamente relacionado en su forma con el segundo coeficiente de asimetría de Pearson.

Momentos L

El uso de momentos L en lugar de momentos proporciona una medida de asimetría conocida como asimetría L. [25]

Asimetría de la distancia

Un valor de asimetría igual a cero no implica que la distribución de probabilidad sea simétrica. Por lo tanto, existe la necesidad de otra medida de asimetría que tenga esta propiedad: dicha medida se introdujo en 2000. [26] Se llama asimetría de distancia y se denota por dSkew. Si X es una variable aleatoria que toma valores en el espacio euclidiano d -dimensional, X tiene una esperanza finita, X ' es una copia independiente idénticamente distribuida de X y denota la norma en el espacio euclidiano, entonces una medida simple de asimetría con respecto al parámetro de ubicación θ es {\displaystyle \|\cdot \|}

dSkew ( X ) := 1 E X X E X + X 2 θ  if  Pr ( X = θ ) 1 {\displaystyle \operatorname {dSkew} (X):=1-{\frac {\operatorname {E} \|X-X'\|}{\operatorname {E} \|X+X'-2\theta \|}}{\text{ if }}\Pr(X=\theta )\neq 1}

y dSkew( X ) := 0 para X  = θ (con probabilidad 1). La asimetría de la distancia siempre está entre 0 y 1, es igual a 0 si y solo si X es diagonalmente simétrica con respecto a θ ( X y 2θ− X tienen la misma distribución de probabilidad) y es igual a 1 si y solo si X es una constante c ( ) con probabilidad uno. [27] Por lo tanto, existe una prueba estadística simple y consistente de simetría diagonal basada en la asimetría de la distancia de la muestra : c θ {\displaystyle c\neq \theta }

dSkew n ( X ) := 1 i , j x i x j i , j x i + x j 2 θ . {\displaystyle \operatorname {dSkew} _{n}(X):=1-{\frac {\sum _{i,j}\|x_{i}-x_{j}\|}{\sum _{i,j}\|x_{i}+x_{j}-2\theta \|}}.}

Pareja de médicos

El medcouple es una medida robusta de asimetría invariante de escala, con un punto de ruptura del 25%. [28] Es la mediana de los valores de la función kernel.

h ( x i , x j ) = ( x i x m ) ( x m x j ) x i x j {\displaystyle h(x_{i},x_{j})={\frac {(x_{i}-x_{m})-(x_{m}-x_{j})}{x_{i}-x_{j}}}}

tomado sobre todas las parejas tales que , donde es la mediana de la muestra . Puede verse como la mediana de todas las posibles medidas de asimetría cuantil. ( x i , x j ) {\displaystyle (x_{i},x_{j})} x i x m x j {\displaystyle x_{i}\geq x_{m}\geq x_{j}} x m {\displaystyle x_{m}} { x 1 , x 2 , , x n } {\displaystyle \{x_{1},x_{2},\ldots ,x_{n}\}}

Véase también

Referencias

Citas

  1. ^ ab Illowsky, Barbara; Dean, Susan (27 de marzo de 2020). «2.6 Asimetría y media, mediana y moda: estadísticas». OpenStax . Consultado el 21 de diciembre de 2022 .
  2. ^ abc von Hippel, Paul T. (2005). "Media, mediana y asimetría: corrección de una regla de libro de texto". Journal of Statistics Education . 13 (2). Archivado desde el original el 20 de febrero de 2016.
  3. ^ "1.3.5.11. Medidas de asimetría y curtosis". NIST . Consultado el 18 de marzo de 2012 .
  4. ^ ab "Medidas de forma: asimetría y curtosis", 2008-2016 por Stan Brown, Oak Road Systems
  5. ^ ab Coeficiente de asimetría del momento de Pearson, FXSolver.com
  6. ^ abcde Joanes, DN; Gill, CA (1998). "Comparación de medidas de asimetría y curtosis de la muestra". Journal of the Royal Statistical Society, Serie D . 47 (1): 183–189. doi :10.1111/1467-9884.00122.
  7. ^ ab Doane, David P. y Lori E. Seward. "Medición de la asimetría: una estadística olvidada". Journal of Statistics Education 19.2 (2011): 1-18. (Página 7)
  8. ^ Duncan Cramer (1997) Estadísticas fundamentales para la investigación social. Routledge. ISBN 9780415172042 (pág. 85). 
  9. ^ Kendall, MG; Stuart, A. (1969) La teoría avanzada de las estadísticas, volumen 1: teoría de la distribución, 3.ª edición , Griffin. ISBN 0-85264-141-9 (Ex 12.9) 
  10. ^ "Copia archivada" (PDF) . Archivado desde el original (PDF) el 5 de julio de 2010. Consultado el 9 de abril de 2010 .{{cite web}}: CS1 maint: archived copy as title (link)
  11. ^ Weisstein, Eric W. "Asimetría del modo de Pearson". MathWorld .
  12. ^ Weisstein, Eric W. "Coeficientes de asimetría de Pearson". MathWorld .
  13. ^ Doane, David P.; Seward, Lori E. (2011). "Medición de la asimetría: ¿una estadística olvidada?" (PDF) . Journal of Statistics Education . 19 (2): 1–18. doi : 10.1080/10691898.2011.11889611 .
  14. ^ Bowley, AL (1901). Elements of Statistics, PS King & Son, Laondon. O en una edición posterior: BOWLEY, AL. "Elements of Statistics, 4th Edn (Nueva York, Charles Scribner)" (1920).
  15. ^ Kenney JF y Keeping ES (1962) Matemáticas estadísticas, Pt. 1, 3.ª ed. , Van Nostrand, (página 102).
  16. ^ Yule, George Udny. Introducción a la teoría de la estadística. C. Griffin, edición limitada, 1912.
  17. ^ Groeneveld, Richard A (1991). "Un enfoque de función de influencia para describir la asimetría de una distribución". The American Statistician . 45 (2): 97–102. doi :10.2307/2684367. JSTOR  2684367.
  18. ^ Johnson, NL, Kotz, S y Balakrishnan, N (1994) pág. 3 y pág. 40
  19. ^ Wilks DS (1995) Métodos estadísticos en las ciencias atmosféricas , pág. 27. Academic Press. ISBN 0-12-751965-3 
  20. ^ Weisstein, Eric W. "Skewness". mathworld.wolfram.com . Consultado el 21 de noviembre de 2019 .
  21. ^ AWL Pubudu Thilan. "Estadística aplicada I: Capítulo 5: Medidas de asimetría" (PDF) . Universidad de Ruhuna . pág. 21.
  22. ^ abcd Groeneveld, RA; Meeden, G. (1984). "Medición de asimetría y curtosis". The Statistician . 33 (4): 391–399. doi :10.2307/2987742. JSTOR  2987742.
  23. ^Por MacGillivray (1992)
  24. ^ Hinkley DV (1975) "Sobre las transformaciones de potencia a la simetría", Biometrika , 62, 101–111
  25. ^ Hosking, JRM (1992). "¿Momentos o momentos L? Un ejemplo que compara dos medidas de forma distributiva". The American Statistician . 46 (3): 186–189. doi :10.2307/2685210. JSTOR  2685210.
  26. ^ Szekely, GJ (2000). "Teoremas prelímite y poslímite para estadística", en: Statistics for the 21st Century (eds. CR Rao y GJ Szekely), Dekker, Nueva York, págs. 411–422.
  27. ^ Szekely, G. J. y Mori, T. F. (2001) "Una medida característica de asimetría y su aplicación para probar la simetría diagonal", Comunicaciones en estadística: teoría y métodos 30/8 y 9, 1633–1639.
  28. ^ G. Brys; M. Hubert ; A. Struyf (noviembre de 2004). "Una medida robusta de asimetría". Revista de estadística computacional y gráfica . 13 (4): 996–1017. doi :10.1198/106186004X12632. S2CID  120919149.

Fuentes

  • Johnson, NL; Kotz, S; Balakrishnan, N (1994). Distribuciones univariadas continuas . Vol. 1 (2.ª ed.). Wiley. ISBN 0-471-58495-9.
  • MacGillivray, HL (1992). "Propiedades de forma de las familias g y h y Johnson". Comunicaciones en Estadística – Teoría y Métodos . 21 (5): 1244–1250. doi :10.1080/03610929208830842.
  • Premaratne, G., Bera, AK (2001). Ajuste de las pruebas de asimetría y curtosis para especificaciones erróneas de distribución. Documento de trabajo número 01-0116, Universidad de Illinois. Próximamente en Comm in Statistics, Simulation and Computation. 2016 1–15
  • Premaratne, G., Bera, AK (2000). Modelado de asimetría y exceso de curtosis en datos de retorno de acciones. Documento de trabajo de la Oficina de Investigación número 00-0123, Universidad de Illinois.
  • Medidas de asimetría para la distribución de Weibull
  • "Coeficiente de asimetría", Enciclopedia de Matemáticas , EMS Press , 2001 [1994]
  • Un coeficiente de asimetría para distribuciones multivariadas por Michel Petitjean
  • Sobre una estimación más robusta de asimetría y curtosis Comparación de estimadores de asimetría de Kim y White.
  • Distribuciones de asimetría cerrada: simulación, inversión y estimación de parámetros
Retrieved from "https://en.wikipedia.org/w/index.php?title=Skewness&oldid=1226609702"