Varianza agrupada

Método para estimar la varianza de varias poblaciones diferentes

En estadística , la varianza agrupada (también conocida como varianza combinada , varianza compuesta o varianza global ) es un método para estimar la varianza de varias poblaciones diferentes cuando la media de cada población puede ser diferente, pero se puede suponer que la varianza de cada población es la misma. La estimación numérica resultante del uso de este método también se denomina varianza agrupada. σ 2 {\displaystyle \sigma ^{2}}

Suponiendo que las varianzas de la población son iguales, la varianza de la muestra agrupada proporciona una estimación de la varianza más precisa que las varianzas de las muestras individuales. Esta mayor precisión puede generar un mayor poder estadístico cuando se utiliza en pruebas estadísticas que comparan poblaciones, como la prueba t .

La raíz cuadrada de un estimador de varianza agrupada se conoce como desviación estándar agrupada (también conocida como desviación estándar combinada , desviación estándar compuesta o desviación estándar general ).

Motivación

En estadística , muchas veces se recopilan datos para una variable dependiente , y , en un rango de valores para la variable independiente , x . Por ejemplo, la observación del consumo de combustible podría estudiarse como una función de la velocidad del motor mientras la carga del motor se mantiene constante. Si, para lograr una pequeña variación en y , se requieren numerosas pruebas repetidas en cada valor de x , el costo de las pruebas puede volverse prohibitivo. Se pueden determinar estimaciones razonables de la varianza utilizando el principio de varianza agrupada después de repetir cada prueba en un x particular solo unas pocas veces.

Definición y cálculo

La varianza agrupada es una estimación de la varianza común fija subyacente a varias poblaciones que tienen medias diferentes. σ 2 {\displaystyle \sigma ^{2}}

Se nos da un conjunto de varianzas muestrales , donde las poblaciones están indexadas , s i 2 estilo de visualización s_{i}^{2}} i = 1 , , metro {\displaystyle i=1,\lpuntos ,m}

s i 2 estilo de visualización s_{i}^{2}} = 1 norte i 1 yo = 1 norte i ( y i , yo y ¯ i ) 2 . {\displaystyle {\frac {1}{n_{i}-1}}\sum _{j=1}^{n_{i}}\left(y_{i,j}-{\overline {y}}_{i}\right)^{2}.}

Suponiendo tamaños de muestra uniformes , entonces la varianza agrupada se puede calcular mediante la media aritmética : norte i = norte {\displaystyle n_{i}=n} s pag 2 estilo de visualización s_{p}^{2}}

s pag 2 = i = 1 metro s i 2 metro = s 1 2 + s 2 2 + + s metro 2 metro . {\displaystyle s_{p}^{2}={\frac {\sum _{i=1}^{m}s_{i}^{2}}{m}}={\frac {s_{1}^{2}+s_{2}^{2}+\cdots +s_{m}^{2}}{m}}.}

Si los tamaños de muestra no son uniformes, entonces la varianza agrupada se puede calcular mediante el promedio ponderado , utilizando como ponderaciones los respectivos grados de libertad (ver también: corrección de Bessel ): s pag 2 estilo de visualización s_{p}^{2}} el i = norte i 1 {\displaystyle w_{i}=n_{i}-1}

s pag 2 = i = 1 metro ( norte i 1 ) s i 2 i = 1 metro ( norte i 1 ) = ( norte 1 1 ) s 1 2 + ( norte 2 1 ) s 2 2 + + ( norte metro 1 ) s metro 2 norte 1 + norte 2 + + norte metro metro . {\displaystyle s_{p}^{2}={\frac {\sum _{i=1}^{m}(n_{i}-1)s_{i}^{2}}{\sum _{i=1}^{m}(n_{i}-1)}}={\frac {(n_{1}-1)s_{1}^{2}+(n_{2}-1)s_{2}^{2}+\cdots +(n_{m}-1)s_{m}^{2}}{n_{1}+n_{2}+\cdots +n_{m}-m}}.}

La distribución de es . s pag 2 / σ 2 {\displaystyle s_{p}^{2}/\sigma ^{2}} χ 2 ( i n i m ) {\displaystyle \chi ^{2}(\sum _{i}n_{i}-m)}

Demostración. Cuando hay una sola media, la distribución de es una gaussiana en , el símplex de dimensión , con desviación estándar . Cuando hay múltiples medias, la distribución de es una gaussiana en . ( y 1 y ¯ , , y n y ¯ ) {\displaystyle (y_{1}-{\bar {y}},\dots ,y_{n}-{\bar {y}})} Δ n 1 {\displaystyle \Delta _{n-1}} ( n 1 ) {\displaystyle (n-1)} σ {\displaystyle \sigma } ( y 1 , 1 y ¯ 1 , , y 1 , n 1 y ¯ 1 , , y m , 1 y ¯ m , , y m , n m y ¯ m ) {\displaystyle (y_{1,1}-{\bar {y}}_{1},\dots ,y_{1,n_{1}}-{\bar {y}}_{1},\dots ,y_{m,1}-{\bar {y}}_{m},\dots ,y_{m,n_{m}}-{\bar {y}}_{m})} Δ n 1 1 × × Δ n m 1 {\displaystyle \Delta _{n_{1}-1}\times \dots \times \Delta _{n_{m}-1}}

Variantes

La estimación de mínimos cuadrados imparcial de (como se presenta arriba) y la estimación de máxima verosimilitud sesgada a continuación: σ 2 {\displaystyle \sigma ^{2}}

s p 2 = i = 1 N ( n i 1 ) s i 2 i = 1 N n i , {\displaystyle s_{p}^{2}={\frac {\sum _{i=1}^{N}(n_{i}-1)s_{i}^{2}}{\sum _{i=1}^{N}n_{i}}},}

se utilizan en diferentes contextos. [ cita requerida ] El primero puede dar una estimación no sesgada cuando los dos grupos comparten una varianza poblacional igual. El último puede dar una estimación más eficiente , aunque sujeta a sesgo. Nótese que las cantidades en los lados derechos de ambas ecuaciones son las estimaciones no sesgadas. s p 2 {\displaystyle s_{p}^{2}} σ 2 {\displaystyle \sigma ^{2}} s p 2 {\displaystyle s_{p}^{2}} σ 2 {\displaystyle \sigma ^{2}} s i 2 {\displaystyle s_{i}^{2}}

Ejemplo

Considere el siguiente conjunto de datos para y obtenidos en varios niveles de la variable independiente  x .

incógnitay
131, 30, 29
242, 41, 40, 39
331, 28
423, 22, 21, 19, 18
521, 20, 19, 18,17

El número de ensayos, la media, la varianza y la desviación estándar se presentan en la siguiente tabla.

incógnitanorte¿ Que quieres decir ?yo 2yo soy
1330.01.01.0
2440.51.671.29
3229.54.52.12
4520.64.32.07
5519.02.51.58

Estas estadísticas representan la varianza y la desviación estándar para cada subconjunto de datos en los distintos niveles de x . Si podemos suponer que los mismos fenómenos generan un error aleatorio en cada nivel de x , los datos anteriores pueden “agruparse” para expresar una única estimación de la varianza y la desviación estándar. En cierto sentido, esto sugiere encontrar una varianza media o una desviación estándar entre los cinco resultados anteriores. Esta varianza media se calcula ponderando los valores individuales con el tamaño del subconjunto para cada nivel de x . Por lo tanto, la varianza agrupada se define mediante

s p 2 = ( n 1 1 ) s 1 2 + ( n 2 1 ) s 2 2 + + ( n k 1 ) s k 2 ( n 1 1 ) + ( n 2 1 ) + + ( n k 1 ) {\displaystyle s_{p}^{2}={\frac {(n_{1}-1)s_{1}^{2}+(n_{2}-1)s_{2}^{2}+\cdots +(n_{k}-1)s_{k}^{2}}{(n_{1}-1)+(n_{2}-1)+\cdots +(n_{k}-1)}}}

donde n 1 , n 2 , . . ., n k son los tamaños de los subconjuntos de datos en cada nivel de la variable x , y s 1 2 , s 2 2 , . . ., s k 2 son sus respectivas varianzas.

Por lo tanto, la varianza agrupada de los datos que se muestran arriba es:

s p 2 = 2.764 {\displaystyle s_{p}^{2}=2.764\,}

Efecto sobre la precisión

La varianza agrupada es una estimación cuando existe una correlación entre conjuntos de datos agrupados o el promedio de los conjuntos de datos no es idéntico. La variación agrupada es menos precisa cuanto más distinta de cero sea la correlación o más distantes sean los promedios entre los conjuntos de datos.

La variación de datos para conjuntos de datos no superpuestos es:

σ X 2 = i [ ( N X i 1 ) σ X i 2 + N X i μ X i 2 ] [ i N X i ] μ X 2 i N X i 1 {\displaystyle \sigma _{X}^{2}={\frac {\sum _{i}\left[(N_{X_{i}}-1)\sigma _{X_{i}}^{2}+N_{X_{i}}\mu _{X_{i}}^{2}\right]-\left[\sum _{i}N_{X_{i}}\right]\mu _{X}^{2}}{\sum _{i}N_{X_{i}}-1}}}

donde la media se define como:

μ X = i N X i μ X i i N X i {\displaystyle \mu _{X}={\frac {\sum _{i}N_{X_{i}}\mu _{X_{i}}}{\sum _{i}N_{X_{i}}}}}

Dada una máxima verosimilitud sesgada definida como:

s p 2 = i = 1 k ( n i 1 ) s i 2 i = 1 k n i , {\displaystyle s_{p}^{2}={\frac {\sum _{i=1}^{k}(n_{i}-1)s_{i}^{2}}{\sum _{i=1}^{k}n_{i}}},}

Entonces el error en la estimación de máxima verosimilitud sesgada es:

Error = s p 2 σ X 2 = i ( N X i 1 ) s i 2 i N X i 1 i N X i 1 ( i [ ( N X i 1 ) σ X i 2 + N X i μ X i 2 ] [ i N X i ] μ X 2 ) {\displaystyle {\begin{aligned}{\text{Error}}&=s_{p}^{2}-\sigma _{X}^{2}\\[6pt]&={\frac {\sum _{i}(N_{X_{i}}-1)s_{i}^{2}}{\sum _{i}N_{X_{i}}}}-{\frac {1}{\sum _{i}N_{X_{i}}-1}}\left(\sum _{i}\left[(N_{X_{i}}-1)\sigma _{X_{i}}^{2}+N_{X_{i}}\mu _{X_{i}}^{2}\right]-\left[\sum _{i}N_{X_{i}}\right]\mu _{X}^{2}\right)\end{aligned}}}

Suponiendo que N es grande tal que:

i N X i i N X i 1 {\displaystyle \sum _{i}N_{X_{i}}\approx \sum _{i}N_{X_{i}}-1}

Entonces el error en la estimación se reduce a:

E = ( i [ N X i μ X i 2 ] [ i N X i ] μ X 2 ) i N X i = μ X 2 i [ N X i μ X i 2 ] i N X i {\displaystyle {\begin{aligned}E&=-{\frac {\left(\sum _{i}\left[N_{X_{i}}\mu _{X_{i}}^{2}\right]-\left[\sum _{i}N_{X_{i}}\right]\mu _{X}^{2}\right)}{\sum _{i}N_{X_{i}}}}\\[3pt]&=\mu _{X}^{2}-{\frac {\sum _{i}\left[N_{X_{i}}\mu _{X_{i}}^{2}\right]}{\sum _{i}N_{X_{i}}}}\end{aligned}}}

O alternativamente:

E = [ i N X i μ X i i N X i ] 2 i [ N X i μ X i 2 ] i N X i = [ i N X i μ X i ] 2 i N X i i [ N X i μ X i 2 ] [ i N X i ] 2 {\displaystyle {\begin{aligned}E&=\left[{\frac {\sum _{i}N_{X_{i}}\mu _{X_{i}}}{\sum _{i}N_{X_{i}}}}\right]^{2}-{\frac {\sum _{i}\left[N_{X_{i}}\mu _{X_{i}}^{2}\right]}{\sum _{i}N_{X_{i}}}}\\[3pt]&={\frac {\left[\sum _{i}N_{X_{i}}\mu _{X_{i}}\right]^{2}-\sum _{i}N_{X_{i}}\sum _{i}\left[N_{X_{i}}\mu _{X_{i}}^{2}\right]}{\left[\sum _{i}N_{X_{i}}\right]^{2}}}\end{aligned}}}

Agregación de datos de desviación estándar

En lugar de estimar la desviación estándar agrupada, la siguiente es la forma de agregar exactamente la desviación estándar cuando hay más información estadística disponible.

Estadísticas basadas en la población

Las poblaciones de conjuntos que pueden superponerse se pueden calcular simplemente de la siguiente manera:

N X Y = N X + N Y N X Y {\displaystyle {\begin{aligned}&&N_{X\cup Y}&=N_{X}+N_{Y}-N_{X\cap Y}\\\end{aligned}}}

Las poblaciones de conjuntos que no se superponen se pueden calcular simplemente de la siguiente manera:

X Y = N X Y = 0 N X Y = N X + N Y {\displaystyle {\begin{aligned}X\cap Y=\varnothing &\Rightarrow &N_{X\cap Y}&=0\\&\Rightarrow &N_{X\cup Y}&=N_{X}+N_{Y}\end{aligned}}}

Las desviaciones estándar de subpoblaciones no superpuestas ( XY = ∅ ) se pueden agregar de la siguiente manera si se conocen el tamaño (real o relativo entre sí) y las medias de cada una:

μ X Y = N X μ X + N Y μ Y N X + N Y σ X Y = N X σ X 2 + N Y σ Y 2 N X + N Y + N X N Y ( N X + N Y ) 2 ( μ X μ Y ) 2 {\displaystyle {\begin{aligned}\mu _{X\cup Y}&={\frac {N_{X}\mu _{X}+N_{Y}\mu _{Y}}{N_{X}+N_{Y}}}\\[3pt]\sigma _{X\cup Y}&={\sqrt {{\frac {N_{X}\sigma _{X}^{2}+N_{Y}\sigma _{Y}^{2}}{N_{X}+N_{Y}}}+{\frac {N_{X}N_{Y}}{(N_{X}+N_{Y})^{2}}}(\mu _{X}-\mu _{Y})^{2}}}\end{aligned}}}

Por ejemplo, supongamos que se sabe que el hombre estadounidense promedio tiene una altura media de 70 pulgadas con una desviación estándar de tres pulgadas y que la mujer estadounidense promedio tiene una altura media de 65 pulgadas con una desviación estándar de dos pulgadas. Supongamos también que el número de hombres, N , es igual al número de mujeres. Entonces, la media y la desviación estándar de las alturas de los adultos estadounidenses podrían calcularse como

μ = N 70 + N 65 N + N = 70 + 65 2 = 67.5 σ = 3 2 + 2 2 2 + ( 70 65 ) 2 2 2 = 12.75 3.57 {\displaystyle {\begin{aligned}\mu &={\frac {N\cdot 70+N\cdot 65}{N+N}}={\frac {70+65}{2}}=67.5\\[3pt]\sigma &={\sqrt {{\frac {3^{2}+2^{2}}{2}}+{\frac {(70-65)^{2}}{2^{2}}}}}={\sqrt {12.75}}\approx 3.57\end{aligned}}}

Para el caso más general de M poblaciones no superpuestas, X 1 a X M , y la población agregada , X = i X i {\textstyle X\,=\,\bigcup _{i}X_{i}}

μ X = i N X i μ X i i N X i σ X = i N X i σ X i 2 i N X i + i < j N X i N X j ( μ X i μ X j ) 2 ( i N X i ) 2 {\displaystyle {\begin{aligned}\mu _{X}&={\frac {\sum _{i}N_{X_{i}}\mu _{X_{i}}}{\sum _{i}N_{X_{i}}}}\\[3pt]\sigma _{X}&={\sqrt {{\frac {\sum _{i}N_{X_{i}}\sigma _{X_{i}}^{2}}{\sum _{i}N_{X_{i}}}}+{\frac {\sum _{i<j}N_{X_{i}}N_{X_{j}}(\mu _{X_{i}}-\mu _{X_{j}})^{2}}{{\big (}\sum _{i}N_{X_{i}}{\big )}^{2}}}}}\end{aligned}}} ,

dónde

X i X j = ,   i < j . {\displaystyle X_{i}\cap X_{j}=\varnothing ,\quad \forall \ i<j.}

Si se conocen el tamaño (real o relativo entre sí), la media y la desviación estándar de dos poblaciones superpuestas, así como su intersección, entonces la desviación estándar de la población general todavía se puede calcular de la siguiente manera:

μ X Y = 1 N X Y ( N X μ X + N Y μ Y N X Y μ X Y ) σ X Y = 1 N X Y ( N X [ σ X 2 + μ X 2 ] + N Y [ σ Y 2 + μ Y 2 ] N X Y [ σ X Y 2 + μ X Y 2 ] ) μ X Y 2 {\displaystyle {\begin{aligned}\mu _{X\cup Y}&={\frac {1}{N_{X\cup Y}}}\left(N_{X}\mu _{X}+N_{Y}\mu _{Y}-N_{X\cap Y}\mu _{X\cap Y}\right)\\[3pt]\sigma _{X\cup Y}&={\sqrt {{\frac {1}{N_{X\cup Y}}}\left(N_{X}[\sigma _{X}^{2}+\mu _{X}^{2}]+N_{Y}[\sigma _{Y}^{2}+\mu _{Y}^{2}]-N_{X\cap Y}[\sigma _{X\cap Y}^{2}+\mu _{X\cap Y}^{2}]\right)-\mu _{X\cup Y}^{2}}}\end{aligned}}}

Si se suman dos o más conjuntos de datos punto por punto, se puede calcular la desviación estándar del resultado si se conoce la desviación estándar de cada conjunto de datos y la covarianza entre cada par de conjuntos de datos:

σ X = i σ X i 2 + 2 i , j cov ( X i , X j ) {\displaystyle \sigma _{X}={\sqrt {\sum _{i}{\sigma _{X_{i}}^{2}}+2\sum _{i,j}\operatorname {cov} (X_{i},X_{j})}}}

Para el caso especial en el que no existe correlación entre ningún par de conjuntos de datos, entonces la relación se reduce a la raíz de la suma de los cuadrados:

cov ( X i , X j ) = 0 , i < j σ X = i σ X i 2 . {\displaystyle {\begin{aligned}&\operatorname {cov} (X_{i},X_{j})=0,\quad \forall i<j\\\Rightarrow &\;\sigma _{X}={\sqrt {\sum _{i}{\sigma _{X_{i}}^{2}}}}.\end{aligned}}}

Estadísticas basadas en muestras

Las desviaciones estándar de submuestras no superpuestas ( XY = ∅ ) se pueden agregar de la siguiente manera si se conocen el tamaño real y las medias de cada una:

μ X Y = 1 N X Y ( N X μ X + N Y μ Y ) σ X Y = 1 N X Y 1 ( [ N X 1 ] σ X 2 + N X μ X 2 + [ N Y 1 ] σ Y 2 + N Y μ Y 2 [ N X + N Y ] μ X Y 2 ) {\displaystyle {\begin{aligned}\mu _{X\cup Y}&={\frac {1}{N_{X\cup Y}}}\left(N_{X}\mu _{X}+N_{Y}\mu _{Y}\right)\\[3pt]\sigma _{X\cup Y}&={\sqrt {{\frac {1}{N_{X\cup Y}-1}}\left([N_{X}-1]\sigma _{X}^{2}+N_{X}\mu _{X}^{2}+[N_{Y}-1]\sigma _{Y}^{2}+N_{Y}\mu _{Y}^{2}-[N_{X}+N_{Y}]\mu _{X\cup Y}^{2}\right)}}\end{aligned}}}

Para el caso más general de M conjuntos de datos no superpuestos, X 1 a X M , y el conjunto de datos agregados , X = i X i {\textstyle X\,=\,\bigcup _{i}X_{i}}

μ X = 1 i N X i ( i N X i μ X i ) σ X = 1 i N X i 1 ( i [ ( N X i 1 ) σ X i 2 + N X i μ X i 2 ] [ i N X i ] μ X 2 ) {\displaystyle {\begin{aligned}\mu _{X}&={\frac {1}{\sum _{i}{N_{X_{i}}}}}\left(\sum _{i}{N_{X_{i}}\mu _{X_{i}}}\right)\\[3pt]\sigma _{X}&={\sqrt {{\frac {1}{\sum _{i}{N_{X_{i}}-1}}}\left(\sum _{i}{\left[(N_{X_{i}}-1)\sigma _{X_{i}}^{2}+N_{X_{i}}\mu _{X_{i}}^{2}\right]}-\left[\sum _{i}{N_{X_{i}}}\right]\mu _{X}^{2}\right)}}\end{aligned}}}

dónde

X i X j = , i < j . {\displaystyle X_{i}\cap X_{j}=\varnothing ,\quad \forall i<j.}

Si se conocen el tamaño, la media y la desviación estándar de dos muestras superpuestas, así como su intersección, entonces se puede calcular la desviación estándar de la muestra agregada. En general,

μ X Y = 1 N X Y ( N X μ X + N Y μ Y N X Y μ X Y ) σ X Y = [ N X 1 ] σ X 2 + N X μ X 2 + [ N Y 1 ] σ Y 2 + N Y μ Y 2 [ N X Y 1 ] σ X Y 2 N X Y μ X Y 2 [ N X + N Y N X Y ] μ X Y 2 N X Y 1 {\displaystyle {\begin{aligned}\mu _{X\cup Y}&={\frac {1}{N_{X\cup Y}}}\left(N_{X}\mu _{X}+N_{Y}\mu _{Y}-N_{X\cap Y}\mu _{X\cap Y}\right)\\[3pt]\sigma _{X\cup Y}&={\sqrt {\frac {[N_{X}-1]\sigma _{X}^{2}+N_{X}\mu _{X}^{2}+[N_{Y}-1]\sigma _{Y}^{2}+N_{Y}\mu _{Y}^{2}-[N_{X\cap Y}-1]\sigma _{X\cap Y}^{2}-N_{X\cap Y}\mu _{X\cap Y}^{2}-[N_{X}+N_{Y}-N_{X\cap Y}]\mu _{X\cup Y}^{2}}{N_{X\cup Y}-1}}}\end{aligned}}}

Véase también

Referencias

  • Killeen PR (mayo de 2005). "Una alternativa a las pruebas de significación de hipótesis nula". Psychol Sci . 16 (5): 345–53. doi :10.1111/j.0956-7976.2005.01538.x. PMC  1473027 . PMID  15869691.
  • Libro de Oro de la IUPAC: desviación estándar agrupada
  • [1]
  • – también haciendo referencia a la d de Cohen (en la página 6)
Retrieved from "https://en.wikipedia.org/w/index.php?title=Pooled_variance&oldid=1234706247"