Diferencia absoluta media

La diferencia absoluta media (univariada) es una medida de dispersión estadística igual a la diferencia absoluta promedio de dos valores independientes extraídos de una distribución de probabilidad . Una estadística relacionada es la diferencia absoluta media relativa , que es la diferencia absoluta media dividida por la media aritmética , e igual al doble del coeficiente de Gini . La diferencia absoluta media también se conoce como diferencia media absoluta (que no debe confundirse con el valor absoluto de la diferencia media con signo ) y diferencia media de Gini (GMD). [1] La diferencia absoluta media a veces se denota por Δ o como MD.

Definición

La diferencia absoluta media se define como el "promedio" o "media", formalmente el valor esperado , de la diferencia absoluta de dos variables aleatorias X e Y distribuidas de forma independiente e idéntica con la misma distribución (desconocida) de ahora en adelante denominada Q.

METRO D := mi [ | incógnita Y | ] . {\displaystyle \mathrm {MD} :=E[|XY|].}

Cálculo

En concreto, en el caso discreto,

  • Para una muestra aleatoria de tamaño n de una población distribuida uniformemente según Q , por la ley de expectativa total la diferencia absoluta media (empírica) de la secuencia de valores muestrales y i , i = 1 a n se puede calcular como la media aritmética del valor absoluto de todas las diferencias posibles:
METRO D = mi [ | incógnita Y | ] = mi incógnita [ mi Y | incógnita [ | incógnita Y | ] ] = 1 norte 2 i = 1 norte yo = 1 norte | incógnita i y yo | . {\displaystyle \mathrm {MD} =E[|XY|]=E_{X}[E_{Y|X}[|XY|]]={\frac {1}{n^{2}}}\sum _{i=1}^{n}\sum _{j=1}^{n}|x_{i}-y_{j}|.}
METRO D = i = 1 norte yo = 1 norte F ( y i ) F ( y yo ) | y i y yo | . {\displaystyle \mathrm {MD} =\sum _{i=1}^{n}\sum _{j=1}^{n}f(y_{i})f(y_{j})|y_{ i}-y_{j}|.}

En el caso continuo,

METRO D = F ( incógnita ) F ( y ) | incógnita y | d incógnita d y . {\displaystyle \mathrm {MD} =\int _{-\infty }^{\infty }\int _{-\infty }^{\infty }f(x)\,f(y)\,|x-y|\,dx\,dy.}

Una forma alternativa de la ecuación viene dada por:

M D = 0 2 f ( x ) f ( x + δ ) δ d x d δ . {\displaystyle \mathrm {MD} =\int _{0}^{\infty }\int _{-\infty }^{\infty }2\,f(x)\,f(x+\delta )\,\delta \,dx\,d\delta .}
M D = 0 1 0 1 | Q ( F 1 ) Q ( F 2 ) | d F 1 d F 2 . {\displaystyle \mathrm {MD} =\int _{0}^{1}\int _{0}^{1}|Q(F_{1})-Q(F_{2})|\,dF_{1}\,dF_{2}.}

Diferencia absoluta de media relativa

Cuando la distribución de probabilidad tiene una media aritmética finita y distinta de cero AM, la diferencia absoluta media relativa, a veces denotada por Δ o RMD, se define como

R M D = M D A M . {\displaystyle \mathrm {RMD} ={\frac {\mathrm {MD} }{\mathrm {AM} }}.}

La diferencia absoluta media relativa cuantifica la diferencia absoluta media en comparación con el tamaño de la media y es una cantidad adimensional. La diferencia absoluta media relativa es igual al doble del coeficiente de Gini , que se define en términos de la curva de Lorenz . Esta relación proporciona perspectivas complementarias tanto a la diferencia absoluta media relativa como al coeficiente de Gini, incluidas formas alternativas de calcular sus valores.

Propiedades

La diferencia absoluta media es invariante a las traslaciones y a la negación, y varía proporcionalmente a la escala positiva. Es decir, si X es una variable aleatoria y c es una constante:

  • MD( X + c ) = MD( X ),
  • MD(− X ) = MD( X ), y
  • MD( c X ) = | c | MD( X ).

La diferencia absoluta de medias relativas es invariante a la escala positiva, conmuta con la negación y varía con la traducción en proporción a la relación entre las medias aritméticas original y traducida. Es decir, si X es una variable aleatoria y c es una constante:

  • RMD( X + c ) = RMD( X ) · media( X ) /(media( X ) + c ) = RMD( X ) / (1 + c / media( X )) para c ≠ −media( X ),
  • RMD(− X ) = −RMD( X ), y
  • RMD( c X ) = RMD( X ) para c > 0.

Si una variable aleatoria tiene una media positiva, entonces su diferencia absoluta de medias relativas siempre será mayor o igual a cero. Si, además, la variable aleatoria solo puede tomar valores mayores o iguales a cero, entonces su diferencia absoluta de medias relativas será menor a 2.

En comparación con la desviación estándar

La diferencia absoluta media es el doble de la escala L (el segundo momento L ), mientras que la desviación estándar es la raíz cuadrada de la varianza con respecto a la media (el segundo momento central convencional). Las diferencias entre los momentos L y los momentos convencionales se ven primero al comparar la diferencia absoluta media y la desviación estándar (el primer momento L y el primer momento convencional son ambos la media).

Tanto la desviación estándar como la diferencia absoluta media miden la dispersión (qué tan dispersos están los valores de una población o las probabilidades de una distribución). La diferencia absoluta media no se define en términos de una medida específica de tendencia central, mientras que la desviación estándar se define en términos de la desviación con respecto a la media aritmética. Debido a que la desviación estándar eleva al cuadrado sus diferencias, tiende a dar más peso a las diferencias más grandes y menos peso a las diferencias más pequeñas en comparación con la diferencia absoluta media. Cuando la media aritmética es finita, la diferencia absoluta media también será finita, incluso cuando la desviación estándar sea infinita. Vea los ejemplos para ver algunas comparaciones específicas.

La desviación estándar de la distancia, introducida recientemente , cumple una función similar a la diferencia absoluta de medias, pero la desviación estándar de la distancia funciona con distancias centradas. Véase también E-estadísticas .

Estimadores de muestra

Para una muestra aleatoria S de una variable aleatoria X , que consta de n valores y i , la estadística

M D ( S ) = i = 1 n j = 1 n | y i y j | n ( n 1 ) {\displaystyle \mathrm {MD} (S)={\frac {\sum _{i=1}^{n}\sum _{j=1}^{n}|y_{i}-y_{j}|}{n(n-1)}}}

es un estimador consistente e imparcial de MD( X ). La estadística:

R M D ( S ) = i = 1 n j = 1 n | y i y j | ( n 1 ) i = 1 n y i {\displaystyle \mathrm {RMD} (S)={\frac {\sum _{i=1}^{n}\sum _{j=1}^{n}|y_{i}-y_{j}|}{(n-1)\sum _{i=1}^{n}y_{i}}}}

es un estimador consistente de RMD( X ), pero, en general, no es imparcial .

Los intervalos de confianza para RMD( X ) se pueden calcular utilizando técnicas de muestreo bootstrap.

En general, no existe un estimador insesgado para RMD( X ), en parte debido a la dificultad de encontrar una estimación insesgada para multiplicar por la inversa de la media. Por ejemplo, incluso cuando se sabe que la muestra se tomó de una variable aleatoria X ( p ) para una p desconocida , y X ( p ) − 1 tiene la distribución de Bernoulli , de modo que Pr( X ( p ) = 1) = 1 −  p y Pr( X ( p ) = 2) = p , entonces

RMD( X ( p )) = 2 p (1 −  p )/(1 +  p ) .

Pero el valor esperado de cualquier estimador R ( S ) de RMD( X ( p )) será de la forma: [ cita requerida ]

E ( R ( S ) ) = i = 0 n p i ( 1 p ) n i r i , {\displaystyle \operatorname {E} (R(S))=\sum _{i=0}^{n}p^{i}(1-p)^{n-i}r_{i},}

donde r i son constantes. Por lo tanto, E( R ( S )) nunca puede ser igual a RMD( X ( p )) para todos los p entre 0 y 1.

Ejemplos

Ejemplos de diferencia absoluta media y diferencia absoluta media relativa
DistribuciónParámetrosSignificarDesviación estándarDiferencia absoluta mediaDiferencia absoluta de media relativa
Uniforme continuo a = 0 ; b = 1 {\displaystyle a=0;b=1} 1 / 2 = 0.5 {\displaystyle 1/2=0.5} 1 12 0.2887 {\displaystyle {\frac {1}{\sqrt {12}}}\approx 0.2887} 1 3 0.3333 {\displaystyle {\frac {1}{3}}\approx 0.3333} 2 3 0.6667 {\displaystyle {\frac {2}{3}}\approx 0.6667}
Normal μ = 0 {\displaystyle \mu =0} ; σ = 1 {\displaystyle \sigma =1} 0 {\displaystyle 0} 1 {\displaystyle 1} 2 π 1.1284 {\displaystyle {\frac {2}{\sqrt {\pi }}}\approx 1.1284} indefinido
Exponencial λ = 1 {\displaystyle \lambda =1} 1 {\displaystyle 1} 1 {\displaystyle 1} 1 {\displaystyle 1} 1 {\displaystyle 1}
Pareto k > 1 {\displaystyle k>1} ; x m = 1 {\displaystyle x_{m}=1} k k 1 {\displaystyle {\frac {k}{k-1}}} 1 k 1 k k 2  for  k > 2 {\displaystyle {\frac {1}{k-1}}\,{\sqrt {\frac {k}{k-2}}}{\text{ for }}k>2} 2 k ( k 1 ) ( 2 k 1 ) {\displaystyle {\frac {2k}{(k-1)(2k-1)}}\,} 2 2 k 1 {\displaystyle {\frac {2}{2k-1}}\,}
Gama k {\displaystyle k} ; θ {\displaystyle \theta } k θ {\displaystyle k\theta } k θ {\displaystyle {\sqrt {k}}\,\theta } 2 θ B ( 0.5 , k ) {\displaystyle {\frac {2\theta }{\mathrm {B} (0.5,k)}}\,} 2 k B ( 0.5 , k ) {\displaystyle {\frac {2}{k\mathrm {B} (0.5,k)}}\,}
Gama k = 1 {\displaystyle k=1} ; θ = 1 {\displaystyle \theta =1} 1 {\displaystyle 1} 1 {\displaystyle 1} 1 {\displaystyle 1} 1 {\displaystyle 1}
Gama k = 2 {\displaystyle k=2} ; θ = 1 {\displaystyle \theta =1} 2 {\displaystyle 2} 2 1.4142 {\displaystyle {\sqrt {2}}\approx 1.4142} 3 / 2 = 1.5 {\displaystyle 3/2=1.5} 3 / 4 = 0.75 {\displaystyle 3/4=0.75}
Gama k = 3 {\displaystyle k=3} ; θ = 1 {\displaystyle \theta =1} 3 {\displaystyle 3} 3 1.7321 {\displaystyle {\sqrt {3}}\approx 1.7321} 15 / 8 = 1.875 {\displaystyle 15/8=1.875} 5 / 8 = 0.625 {\displaystyle 5/8=0.625}
Gama k = 4 {\displaystyle k=4} ; θ = 1 {\displaystyle \theta =1} 4 {\displaystyle 4} 2 {\displaystyle 2} 35 / 16 = 2.1875 {\displaystyle 35/16=2.1875} 35 / 64 = 0.546875 {\displaystyle 35/64=0.546875}
Bernoulli 0 p 1 {\displaystyle 0\leq p\leq 1} p {\displaystyle p} p ( 1 p ) {\displaystyle {\sqrt {p(1-p)}}} 2 p ( 1 p ) {\displaystyle 2p(1-p)} 2 ( 1 p )  for  p > 0 {\displaystyle 2(1-p){\text{ for }}p>0}
T de Student , 2 grados de libertad ν = 2 {\displaystyle \nu =2} 0 {\displaystyle 0} {\displaystyle \infty } ⁠ ⁠ π 2 2.2214 {\displaystyle {\frac {\pi }{\sqrt {2}}}\approx 2.2214} indefinido
† es la función Beta B ( x , y ) {\displaystyle \mathrm {B} (x,y)}

Véase también

Referencias

  1. ^ Yitzhaki, Shlomo (2003). "Diferencia de medias de Gini: una medida superior de variabilidad para distribuciones no normales" (PDF) . Metron International Journal of Statistics . 61 (2). Springer Verlag: 285–316.

Fuentes

  • Xu, Kuan (enero de 2004). "¿Cómo ha evolucionado la literatura sobre el índice de Gini en los últimos 80 años?" (PDF) . Departamento de Economía, Universidad de Dalhousie . Consultado el 1 de junio de 2006 . {{cite journal}}: Requiere citar revista |journal=( ayuda )
  • Gini, Corrado (1912). Variabilidad y mutabilidad . Bolonia: Tipografia di Paolo Cuppini. Código bibliográfico : 1912vamu.book.....G.
  • Gini, Corrado (1921). "Medición de la desigualdad y los ingresos". The Economic Journal . 31 (121): 124–126. doi :10.2307/2223319. JSTOR  2223319.
  • Chakravarty, SR (1990). Índices éticos y sociales . Nueva York: Springer-Verlag.
  • Mills, Jeffrey A.; Zandvakili, Sourushe (1997). "Inferencia estadística mediante bootstrapping para medidas de desigualdad". Revista de econometría aplicada . 12 (2): 133–150. CiteSeerX  10.1.1.172.5003 . doi :10.1002/(SICI)1099-1255(199703)12:2<133::AID-JAE433>3.0.CO;2-H.
  • Lomnicki, ZA (1952). "El error estándar de la diferencia de medias del coeficiente de Gini". Anales de estadística matemática . 23 (4): 635–637. doi : 10.1214/aoms/1177729346 .
  • Nair, EE. UU. (1936). "Error estándar de la diferencia de medias del coeficiente de Gini". Biometrika . 28 (3–4): 428–436. doi :10.1093/biomet/28.3-4.428.
  • Yitzhaki, Shlomo (2003). "Diferencia de medias de Gini: una medida superior de variabilidad para distribuciones no normales" (PDF) . Metron – Revista Internacional de Estadística . 61 : 285–316.
Retrieved from "https://en.wikipedia.org/w/index.php?title=Mean_absolute_difference&oldid=1173977004"