En teoría de probabilidad y estadística , la curtosis (del griego κυρτός , kyrtos o kurtos , que significa "curvo, arqueado") se refiere al grado de "cola" en la distribución de probabilidad de una variable aleatoria de valor real . De manera similar a la asimetría , la curtosis proporciona información sobre las características específicas de una distribución. Existen varios métodos para cuantificar la curtosis en distribuciones teóricas, y las técnicas correspondientes permiten la estimación basada en datos de muestra de una población. Es importante señalar que diferentes medidas de curtosis pueden producir diferentes interpretaciones.
La medida estándar de la curtosis de una distribución, que se originó con Karl Pearson , [1] es una versión escalada del cuarto momento de la distribución. Este número está relacionado con las colas de la distribución, no con su pico; [2] por lo tanto, la caracterización que a veces se ve de la curtosis como " pico " es incorrecta. Para esta medida, una curtosis más alta corresponde a una mayor extremidad de las desviaciones (o valores atípicos ), y no a la configuración de los datos cerca de la media .
El exceso de curtosis, que se suele comparar con un valor de 0, caracteriza la "cola" de una distribución. Una distribución normal univariante tiene un exceso de curtosis de 0. Un exceso de curtosis negativo indica una distribución platicúrtica, que no tiene necesariamente una parte superior plana, pero produce menos valores atípicos o valores menos extremos que la distribución normal. Por ejemplo, la distribución uniforme (es decir, una que es uniformemente finita sobre algún límite y cero en el resto) es platicúrtica. Por otro lado, un exceso de curtosis positivo significa una distribución leptocúrtica. La distribución de Laplace , por ejemplo, tiene colas que decaen más lentamente que una gaussiana, lo que da como resultado más valores atípicos. Para simplificar la comparación con la distribución normal, el exceso de curtosis se calcula como la curtosis de Pearson menos 3. Algunos autores y paquetes de software utilizan "curtosis" para referirse específicamente al exceso de curtosis, pero este artículo distingue entre los dos para mayor claridad.
Las medidas alternativas de curtosis son: la L-curtosis , que es una versión escalada del cuarto momento L ; medidas basadas en cuatro cuantiles de población o muestra . [3] Estas son análogas a las medidas alternativas de asimetría que no se basan en momentos ordinarios. [3]
La curtosis es el cuarto momento estandarizado , definido como donde μ 4 es el cuarto momento central y σ es la desviación estándar . En la literatura se utilizan varias letras para denotar la curtosis. Una opción muy común es κ , que está bien siempre que esté claro que no se refiere a un cumulante . Otras opciones incluyen γ 2 , para ser similar a la notación de asimetría, aunque a veces esto se reserva para el exceso de curtosis.
La curtosis está limitada por debajo por la asimetría al cuadrado más 1: [4] : 432 donde μ 3 es el tercer momento central . El límite inferior se realiza mediante la distribución de Bernoulli . No existe un límite superior para la curtosis de una distribución de probabilidad general, y puede ser infinita.
Una razón por la que algunos autores favorecen la curtosis en exceso es que los cumulantes son extensivos . Las fórmulas relacionadas con la propiedad extensiva se expresan de forma más natural en términos de la curtosis en exceso. Por ejemplo, sean X 1 , ..., X n variables aleatorias independientes para las que existe el cuarto momento, y sea Y la variable aleatoria definida por la suma de las X i . La curtosis en exceso de Y es donde es la desviación estándar de . En particular, si todas las X i tienen la misma varianza, entonces esto se simplifica a
La razón para no restar 3 es que el momento desnudo se generaliza mejor a distribuciones multivariadas , especialmente cuando no se supone independencia. La cocurtosis entre pares de variables es un tensor de orden cuatro . Para una distribución normal bivariada, el tensor de cocurtosis tiene términos fuera de la diagonal que no son ni 0 ni 3 en general, por lo que intentar "corregir" un exceso se vuelve confuso. Es cierto, sin embargo, que los cumulantes conjuntos de grado mayor que dos para cualquier distribución normal multivariada son cero.
Para dos variables aleatorias, X e Y , no necesariamente independientes, la curtosis de la suma, X + Y , es Nótese que los coeficientes binomiales de cuarta potencia (1, 4, 6, 4, 1) aparecen en la ecuación anterior.
La interpretación de la medida de Pearson de la curtosis (o exceso de curtosis) alguna vez fue debatida, pero ahora está bien establecida. Como señaló Westfall en 2014 [2] , "... su interpretación inequívoca se relaciona con la extremidad de la cola. Específicamente, refleja la presencia de valores atípicos existentes (para la curtosis de la muestra) o la tendencia a producir valores atípicos (para la curtosis de una distribución de probabilidad). La lógica subyacente es sencilla: la curtosis representa el promedio (o valor esperado ) de datos estandarizados elevado a la cuarta potencia. Los valores estandarizados menores a 1, correspondientes a datos dentro de una desviación estándar de la media (donde ocurre el "pico"), contribuyen mínimamente a la curtosis. Esto se debe a que elevar un número menor a 1 a la cuarta potencia lo acerca a cero. Los contribuyentes significativos a la curtosis son los valores de datos fuera de la región del pico, es decir, los valores atípicos. Por lo tanto, la curtosis mide principalmente los valores atípicos y no proporciona información sobre el "pico" central.
Numerosos conceptos erróneos sobre la curtosis se relacionan con nociones de agudeza. Uno de esos conceptos erróneos es que la curtosis mide tanto la “agudeza” de una distribución como la pesadez de su cola . [5] Otras interpretaciones incorrectas incluyen nociones como “falta de hombros” (donde “hombro” se refiere vagamente al área entre el pico y la cola, o más específicamente, la región alrededor de una desviación estándar de la media) o “bimodalidad”. [6] Balanda y MacGillivray argumentan que la definición estándar de curtosis “capta pobremente la curtosis, la agudeza o el peso de la cola de una distribución”. En cambio, proponen una definición vaga de curtosis como el movimiento libre de ubicación y escala de la masa de probabilidad desde los hombros de la distribución hacia su centro y colas. [5]
En 1986, Moors dio una interpretación de la curtosis. [7] Sea donde X es una variable aleatoria, μ es la media y σ es la desviación estándar.
Ahora bien, por definición de la curtosis y por la conocida identidad
La curtosis puede verse ahora como una medida de la dispersión de Z 2 alrededor de su expectativa. Alternativamente, puede verse como una medida de la dispersión de Z alrededor de +1 y −1. κ alcanza su valor mínimo en una distribución simétrica de dos puntos. En términos de la variable original X , la curtosis es una medida de la dispersión de X alrededor de los dos valores μ ± σ .
Los valores altos de κ surgen en dos circunstancias:
La entropía de una distribución es .
Para cualquier distribución de probabilidad con definida positiva, entre todas las distribuciones de probabilidad con media y covarianza , la distribución normal tiene la mayor entropía.
Como la media y la covarianza son los dos primeros momentos, es natural considerar la extensión a momentos superiores. De hecho, mediante el método del multiplicador de Lagrange , para cualesquiera primeros n momentos prescritos, si existe alguna distribución de probabilidad de la forma que tenga los momentos prescritos (si es factible), entonces es la distribución de entropía máxima bajo las restricciones dadas. [8] [9]
Por expansión serial, entonces si una variable aleatoria tiene distribución de probabilidad , donde es una constante de normalización, entonces su curtosis es . [10]
El exceso de curtosis se define como curtosis menos 3. Hay 3 regímenes distintos, como se describe a continuación.
Las distribuciones con exceso de curtosis cero se denominan mesocúrticas o mesocurtóticas . El ejemplo más destacado de una distribución mesocúrtica es la familia de distribuciones normales, independientemente de los valores de sus parámetros . Algunas otras distribuciones conocidas pueden ser mesocúrticas, dependiendo de los valores de los parámetros: por ejemplo, la distribución binomial es mesocúrtica para .
Una distribución con exceso de curtosis positivo se denomina leptocúrtica o leptocurtósica . "Lepto-" significa "delgada". [11] En términos de forma, una distribución leptocúrtica tiene colas más gruesas . Algunos ejemplos de distribuciones leptocúrticas son la distribución t de Student , la distribución de Rayleigh , la distribución de Laplace , la distribución exponencial , la distribución de Poisson y la distribución logística . A estas distribuciones a veces se las denomina supergaussianas . [12]
Una distribución con exceso de curtosis negativo se llama platicúrtica o platicúrtica . "Plati-" significa "ancha". [13] En términos de forma, una distribución platicúrtica tiene colas más delgadas . Ejemplos de distribuciones platicúrticas incluyen las distribuciones uniformes continuas y discretas y la distribución de coseno elevado . La distribución más platicúrtica de todas es la distribución de Bernoulli con p = 1/2 (por ejemplo, el número de veces que se obtiene "cara" al lanzar una moneda una vez, un lanzamiento de moneda ), para la cual el exceso de curtosis es −2.
Los efectos de la curtosis se ilustran utilizando una familia paramétrica de distribuciones cuya curtosis se puede ajustar mientras sus momentos y cumulantes de orden inferior permanecen constantes. Considere la familia Pearson tipo VII , que es un caso especial de la familia Pearson tipo IV restringida a densidades simétricas. La función de densidad de probabilidad está dada por donde a es un parámetro de escala y m es un parámetro de forma .
Todas las densidades de esta familia son simétricas. El k- ésimo momento existe siempre que m > ( k + 1)/2. Para que exista la curtosis, requerimos que m > 5/2. Entonces, la media y la asimetría existen y ambas son idénticamente cero. Al establecer a 2 = 2 m − 3, la varianza es igual a la unidad. Entonces, el único parámetro libre es m , que controla el cuarto momento (y cumulante) y, por lo tanto, la curtosis. Se puede repararmetrizar con , donde es el exceso de curtosis como se definió anteriormente. Esto produce una familia leptocúrtica de un parámetro con media cero, varianza unitaria, asimetría cero y exceso de curtosis arbitrario no negativo. La densidad reparametrizada es
En el límite se obtiene la densidad que se muestra como la curva roja en las imágenes de la derecha.
En la otra dirección se obtiene la densidad normal estándar como distribución límite, que se muestra como la curva negra.
En las imágenes de la derecha, la curva azul representa la densidad con exceso de curtosis de 2. La imagen superior muestra que las densidades leptocúrticas en esta familia tienen un pico más alto que la densidad normal mesocúrtica, aunque esta conclusión solo es válida para esta familia seleccionada de distribuciones. Las colas comparativamente más gruesas de las densidades leptocúrticas se ilustran en la segunda imagen, que traza el logaritmo natural de las densidades de tipo VII de Pearson: la curva negra es el logaritmo de la densidad normal estándar, que es una parábola . Se puede ver que la densidad normal asigna poca masa de probabilidad a las regiones alejadas de la media ("tiene colas delgadas"), en comparación con la curva azul de la densidad leptocúrtica de tipo VII de Pearson con exceso de curtosis de 2. Entre la curva azul y la negra hay otras densidades de tipo VII de Pearson con γ 2 = 1, 1/2, 1/4, 1/8 y 1/16. La curva roja muestra nuevamente el límite superior de la familia de Pearson tipo VII, con (lo que, estrictamente hablando, significa que el cuarto momento no existe). La curva roja disminuye más lentamente a medida que uno se aleja del origen ("tiene colas gruesas").
En este artículo se comparan varias distribuciones unimodales y simétricas conocidas de diferentes familias paramétricas. Cada una de ellas tiene una media y una asimetría de cero. Los parámetros se han elegido para que resulten en una varianza igual a 1 en cada caso. Las imágenes de la derecha muestran curvas para las siguientes siete densidades, en una escala lineal y una escala logarítmica :
Nótese que en estos casos las densidades platicúrticas tienen soporte acotado , mientras que las densidades con exceso de curtosis positivo o cero están soportadas en toda la línea real .
No se puede inferir que las distribuciones de curtosis alta o baja tengan las características indicadas por estos ejemplos. Existen densidades platicúrticas con soporte infinito,
y existen densidades leptocúrticas con soporte finito.
Además, existen densidades platicúrticas con picos infinitos,
y existen densidades leptocúrticas que aparecen con la parte superior plana,
Para una muestra de n valores, un estimador del método de momentos de la curtosis en exceso de población se puede definir como donde m 4 es el cuarto momento muestral respecto a la media , m 2 es el segundo momento muestral respecto a la media (es decir, la varianza muestral ), x i es el i ésimo valor y es la media muestral .
Esta fórmula tiene una representación más simple, donde los valores son los valores de datos estandarizados que utilizan la desviación estándar definida usando n en lugar de n − 1 en el denominador.
Por ejemplo, supongamos que los valores de los datos son 0, 3, 4, 1, 2, 3, 0, 2, 1, 3, 2, 0, 2, 2, 3, 2, 5, 2, 3, 999.
Entonces los valores son −0,239, −0,225, −0,221, −0,234, −0,230, −0,225, −0,239, −0,230, −0,234, −0,225, −0,230, −0,239, −0,230, −0,230, −0,225, −0,230, −0,216, −0,230, −0,225, 4,359
y los valores son 0,003, 0,003, 0,002, 0,003, 0,003, 0,003, 0,003, 0,003, 0,003, 0,003, 0,003, 0,003, 0,003, 0,003, 0,003, 0,002, 0,003, 0,003, 360,976.
El promedio de estos valores es 18,05 y, por lo tanto, el exceso de curtosis es 18,05 − 3 = 15,05. Este ejemplo deja en claro que los datos cerca del "centro" o "pico" de la distribución no contribuyen a la estadística de curtosis, por lo tanto, la curtosis no mide el "pico". Es simplemente una medida del valor atípico, 999 en este ejemplo.
Dado un subconjunto de muestras de una población, el exceso de curtosis de la muestra anterior es un estimador sesgado del exceso de curtosis de la población. Un estimador alternativo del exceso de curtosis de la población, que es insesgado en muestras aleatorias de una distribución normal, se define de la siguiente manera: [3] donde k 4 es el único estimador insesgado simétrico del cuarto cumulante , k 2 es la estimación insesgada del segundo cumulante (idéntica a la estimación insesgada de la varianza de la muestra), m 4 es el cuarto momento de la muestra sobre la media, m 2 es el segundo momento de la muestra sobre la media, x i es el i ésimo valor y es la media de la muestra. Este coeficiente de momento estandarizado de Fisher-Pearson ajustado es la versión que se encuentra en Excel y varios paquetes estadísticos, incluidos Minitab , SAS y SPSS . [14]
Desafortunadamente, en muestras no normales, generalmente está sesgado.
Un límite superior para la curtosis de la muestra de n ( n > 2) números reales es [15] donde es la asimetría de la muestra correspondiente.
La varianza de la curtosis muestral de una muestra de tamaño n de la distribución normal es [16]
Dicho de otra manera, bajo el supuesto de que la variable aleatoria subyacente se distribuye normalmente, se puede demostrar que . [17] : Número de página necesario
La curtosis de la muestra es una medida útil para determinar si existe un problema con valores atípicos en un conjunto de datos. Una curtosis mayor indica un problema de valores atípicos más grave y puede llevar al investigador a elegir métodos estadísticos alternativos.
La prueba K-cuadrado de D'Agostino es una prueba de normalidad de bondad de ajuste basada en una combinación de la asimetría y la curtosis de la muestra, al igual que la prueba de Jarque-Bera para la normalidad.
Para las muestras no normales, la varianza de la muestra depende de la curtosis; para obtener más detalles, consulte varianza .
La definición de curtosis de Pearson se utiliza como indicador de intermitencia en la turbulencia . [18] También se utiliza en imágenes por resonancia magnética para cuantificar la difusión no gaussiana. [19]
Un ejemplo concreto es el siguiente lema de He, Zhang y Zhang: [20] Supongamos que una variable aleatoria tiene expectativa , varianza y curtosis. Supongamos que tomamos muestras de muchas copias independientes. Entonces
Esto demuestra que, con muchas muestras, veremos una que esté por encima de lo esperado con una probabilidad de al menos . En otras palabras: si la curtosis es grande, podríamos ver muchos valores, ya sea por debajo o por encima de la media.
Al aplicar filtros de paso de banda a imágenes digitales , los valores de curtosis tienden a ser uniformes, independientemente del rango del filtro. Este comportamiento, denominado convergencia de curtosis , se puede utilizar para detectar empalmes de imágenes en análisis forenses . [21]
La curtosis se puede utilizar en geofísica para distinguir diferentes tipos de señales sísmicas . Es particularmente eficaz para diferenciar las señales sísmicas generadas por pisadas humanas de otras señales. [22] Esto es útil en sistemas de seguridad y vigilancia que dependen de la detección sísmica.
En meteorología , la curtosis se utiliza para analizar distribuciones de datos meteorológicos. Ayuda a predecir fenómenos meteorológicos extremos evaluando la probabilidad de valores atípicos en datos históricos, [23] lo que resulta valioso para estudios climáticos a largo plazo y pronósticos meteorológicos a corto plazo.
Se proporciona una medida diferente de "curtosis" utilizando momentos L en lugar de los momentos ordinarios. [24] [25]
{{citation}}
: CS1 maint: location (link)