Margen de error

Estadística que expresa la cantidad de error de muestreo aleatorio en los resultados de una encuesta
Densidades de probabilidad de encuestas de distintos tamaños, cada una codificada por colores según su intervalo de confianza del 95 % (abajo), margen de error (izquierda) y tamaño de la muestra (derecha). Cada intervalo refleja el rango dentro del cual se puede tener un 95 % de confianza en que se puede encontrar el porcentaje verdadero , dado un porcentaje informado del 50 %. El margen de error es la mitad del intervalo de confianza (también, el radio del intervalo). Cuanto mayor sea la muestra, menor será el margen de error. Además, cuanto más alejado del 50 % esté el porcentaje informado, menor será el margen de error.

El margen de error es una estadística que expresa la cantidad de error de muestreo aleatorio en los resultados de una encuesta . Cuanto mayor sea el margen de error, menos confianza se debe tener en que el resultado de una encuesta refleje el resultado de un censo de toda la población . El margen de error será positivo siempre que una población esté muestreada de forma incompleta y la medida del resultado tenga una varianza positiva , es decir, siempre que la medida varíe .

El término margen de error se utiliza a menudo en contextos no relacionados con encuestas para indicar un error de observación al informar cantidades medidas.

Concepto

Consideremos una encuesta simple de sí/no como una muestra de encuestados extraídos de una población que informa el porcentaje de respuestas afirmativas . Nos gustaría saber qué tan cerca está del resultado verdadero una encuesta de toda la población , sin tener que realizar una. Si, hipotéticamente, realizáramos una encuesta sobre muestras subsiguientes de encuestados (recién extraídos de ), esperaríamos que esos resultados subsiguientes se distribuyeran normalmente alrededor de , el porcentaje verdadero pero desconocido de la población. El margen de error describe la distancia dentro de la cual se espera que un porcentaje específico de estos resultados varíe de . PAG {\estilo de visualización P} norte {\estilo de visualización n} norte ( norte norte ) {\displaystyle N{\text{, }}(n\ll N)} pag {\estilo de visualización p} pag {\estilo de visualización p} norte {\estilo de visualización N} PAG {\estilo de visualización P} norte {\estilo de visualización n} norte {\estilo de visualización N} pag 1 , pag 2 , {\displaystyle p_{1},p_{2},\ldots} pag ¯ {\displaystyle {\overline {p}}} pag ¯ {\displaystyle {\overline {p}}}

Según el teorema del límite central , el margen de error ayuda a explicar cómo la distribución de las medias de la muestra (o el porcentaje de sí, en este caso) se aproximará a una distribución normal a medida que aumenta el tamaño de la muestra. Si esto se aplica, hablaría de que el muestreo es imparcial, pero no de la distribución inherente de los datos. [1]

Según la regla 68-95-99.7 , esperaríamos que el 95% de los resultados se encuentren dentro de aproximadamente dos desviaciones estándar ( ) a cada lado de la media verdadera . Este intervalo se denomina intervalo de confianza y el radio (la mitad del intervalo) se denomina margen de error , que corresponde a un nivel de confianza del 95% . pag 1 , pag 2 , {\displaystyle p_{1},p_{2},\ldots} ± 2 σ PAG {\displaystyle \pm 2\sigma _{P}} pag ¯ {\displaystyle {\overline {p}}}

Generalmente, a un nivel de confianza , una muestra del tamaño de una población que tiene una desviación estándar esperada tiene un margen de error gamma {\estilo de visualización \gamma} norte {\estilo de visualización n} σ {\estilo de visualización \sigma}

METRO Oh mi gamma = el gamma × σ 2 norte {\displaystyle MOE_{\gamma }=z_{\gamma }\times {\sqrt {\frac {\sigma ^{2}}{n}}}}

donde denota el cuantil (también, comúnmente, una puntuación z ), y es el error estándar . el gamma {\displaystyle z_{\gamma}} σ 2 norte {\displaystyle {\sqrt {\frac {\sigma ^{2}}{n}}}}

Desviación estándar y error estándar

Esperaríamos que el promedio de los valores distribuidos normalmente   tenga una desviación estándar que de alguna manera varíe con . Cuanto menor sea , más amplio será el margen. Esto se denomina error estándar . pag 1 , pag 2 , {\displaystyle p_{1},p_{2},\ldots} norte {\estilo de visualización n} norte {\estilo de visualización n} σ pag ¯ {\displaystyle \sigma _{\overline {p}}}

Para el resultado único de nuestra encuesta, suponemos que , y que todos los resultados subsiguientes juntos tendrían una varianza . pag = pag ¯ {\displaystyle p={\overline {p}}} pag 1 , pag 2 , {\displaystyle p_{1},p_{2},\ldots} σ PAG 2 = PAG ( 1 PAG ) {\displaystyle \sigma _{P}^{2}=P(1-P)}

Error estándar = σ pag ¯ σ PAG 2 norte pag ( 1 pag ) norte {\displaystyle {\text{Error estándar}}=\sigma _{\overline {p}}\approx {\sqrt {\frac {\sigma _{P}^{2}}{n}}}\approx {\sqrt {\frac {p(1-p)}{n}}}}

Nótese que corresponde a la varianza de una distribución de Bernoulli . pag ( 1 pag ) {\estilo de visualización p(1-p)}

Margen máximo de error en diferentes niveles de confianza

Para un nivel de confianza , existe un intervalo de confianza correspondiente sobre la media , es decir, el intervalo dentro del cual los valores de deberían caer con probabilidad . Los valores precisos de están dados por la función cuantil de la distribución normal (a la que se aproxima la regla 68–95–99,7). gamma {\estilo de visualización \gamma} micras ± el gamma σ {\displaystyle \mu \pm z_{\gamma }\sigma } [ micras el gamma σ , micras + el gamma σ ] {\displaystyle [\mu -z_{\gamma }\sigma ,\mu +z_{\gamma }\sigma ]} PAG {\estilo de visualización P} gamma {\estilo de visualización \gamma} el gamma {\displaystyle z_{\gamma}}

Tenga en cuenta que no está definido para , es decir, no está definido, al igual que . el gamma {\displaystyle z_{\gamma}} | gamma | 1 {\displaystyle |\gamma |\geq 1} el 1.00 estilo de visualización z_{1.00}} el 1.10 {\displaystyle z_{1.10}}

gamma {\estilo de visualización \gamma} el gamma {\displaystyle z_{\gamma}}   gamma {\estilo de visualización \gamma} el gamma {\displaystyle z_{\gamma}}
0,840,994 457 883 2100,99953.290 526 731 492
0,951.644 853 626 9510,999953.890 591 886 413
0,9751.9599639845400,9999954.417 173 413 469
0,992.326 347 874 0410,99999954.891 638 475 699
0,9952.575 829 303 5490,999999955.326 723 886 384
0,99752.807 033 768 3440,9999999955.730 728 868 236
0,99852.967 737 925 3420,99999999956.109 410 204 869
Gráficos logarítmicos de vs tamaño de muestra n y nivel de confianza γ . Las flechas muestran que el margen de error máximo para un tamaño de muestra de 1000 es ±3,1% con un nivel de confianza del 95% y ±4,1% con un nivel de confianza del 99%. La parábola insertada ilustra la relación entre at y at . En el ejemplo, MOE 95 (0,71) ≈ 0,9 × ±3,1% ≈ ±2,8%. METRO Oh mi gamma ( 0,5 ) {\ Displaystyle MOE _ {\ gamma} (0,5)}
σ pag 2 = pag pag 2 {\displaystyle \sigma _{p}^{2}=pp^{2}} σ pag 2 Estilo de visualización: sigma _{p}^{2}} pag = 0,71 {\displaystyle p=0,71} σ metro a incógnita 2 {\displaystyle \sigma _{max}^{2}} pag = 0,5 {\displaystyle p=0,5}

Dado que en , podemos establecer arbitrariamente , calcular , y para obtener el margen de error máximo para en un nivel de confianza y tamaño de muestra dados , incluso antes de tener los resultados reales. máximo σ PAG 2 = máximo PAG ( 1 PAG ) = 0,25 {\displaystyle \max \sigma _{P}^{2}=\max P(1-P)=0,25} pag = 0,5 {\displaystyle p=0,5} pag = pag ¯ = 0,5 {\displaystyle p={\overline {p}}=0,5} σ PAG estilo de visualización {\sigma _{P}} σ pag ¯ {\displaystyle \sigma _{\overline {p}}} el gamma σ pag ¯ {\ Displaystyle z _ {\ gamma} \ sigma _ {\ overline {p}}} PAG {\estilo de visualización P} gamma {\estilo de visualización \gamma} norte {\estilo de visualización n} pag = 0,5 , norte = 1013 {\displaystyle p=0,5,n=1013}

METRO Oh mi 95 ( 0,5 ) = el 0,95 σ pag ¯ el 0,95 σ PAG 2 norte = 1,96 .25 norte = 0,98 / norte = ± 3.1 % {\displaystyle MOE_{95}(0,5)=z_{0,95}\sigma _{\overline {p}}\approx z_{0,95}{\sqrt {\frac {\sigma _{P}^{2}}{n}}}=1,96{\sqrt {\frac {.25}{n}}}=0,98/{\sqrt {n}}=\pm 3,1\%}
METRO Oh mi 99 ( 0,5 ) = el 0,99 σ pag ¯ el 0,99 σ PAG 2 norte = 2.58 .25 norte = 1.29 / norte = ± 4.1 % {\displaystyle MOE_{99}(0,5)=z_{0,99}\sigma _{\overline {p}}\approx z_{0,99}{\sqrt {\frac {\sigma _{P}^{2}}{n}}}=2,58{\sqrt {\frac {.25}{n}}}=1,29/{\sqrt {n}}=\pm 4,1\%}

También es útil para cualquier denuncia METRO Oh mi 95 Estilo de visualización MOE_{95}

METRO Oh mi 99 = el 0,99 el 0,95 METRO Oh mi 95 1.3 × METRO Oh mi 95 {\displaystyle MOE_{99}={\frac {z_{0.99}}{z_{0.95}}}MOE_{95}\aproximadamente 1.3\times MOE_{95}}

Márgenes de error específicos

Si una encuesta tiene resultados de porcentajes múltiples (por ejemplo, una encuesta que mide una sola preferencia de opción múltiple), el resultado más cercano al 50% tendrá el margen de error más alto. Por lo general, es este número el que se informa como el margen de error para toda la encuesta. Imagine informes de encuestas como PAG {\estilo de visualización P} pag a , pag b , pag do {\displaystyle p_{a},p_{b},p_{c}} 71 % , 27 % , 2 % , norte = 1013 {\displaystyle 71\%,27\%,2\%,n=1013}

METRO Oh mi 95 ( PAG a ) = el 0,95 σ pag a ¯ 1,96 pag a ( 1 pag a ) norte = 0,89 / norte = ± 2.8 % {\displaystyle MOE_{95}(P_{a})=z_{0,95}\sigma _{\overline {p_{a}}}\approx 1,96{\sqrt {\frac {p_{a}(1-p_{a})}{n}}}=0,89/{\sqrt {n}}=\pm 2,8\%} (como en la figura de arriba)
METRO Oh mi 95 ( PAG b ) = el 0,95 σ pag b ¯ 1,96 pag b ( 1 pag b ) norte = 0,87 / norte = ± 2.7 % {\displaystyle MOE_{95}(P_{b})=z_{0.95}\sigma _{\overline {p_{b}}}\approx 1.96{\sqrt {\frac {p_{b}(1-p_{b})}{n}}}=0.87/{\sqrt {n}}=\pm 2.7\%}
M O E 95 ( P c ) = z 0.95 σ p c ¯ 1.96 p c ( 1 p c ) n = 0.27 / n = ± 0.8 % {\displaystyle MOE_{95}(P_{c})=z_{0.95}\sigma _{\overline {p_{c}}}\approx 1.96{\sqrt {\frac {p_{c}(1-p_{c})}{n}}}=0.27/{\sqrt {n}}=\pm 0.8\%}

A medida que un porcentaje dado se acerca a los extremos de 0% o 100%, su margen de error se acerca a ±0%.

Comparando porcentajes

Imaginemos que los informes de encuestas de opción múltiple son como . Como se describió anteriormente, el margen de error informado para la encuesta sería típicamente , ya que es el más cercano al 50%. Sin embargo, la noción popular de empate estadístico o de empate estadístico no se ocupa de la precisión de los resultados individuales, sino de la clasificación de los resultados. ¿Cuál está en primer lugar? P {\displaystyle P} p a , p b , p c {\displaystyle p_{a},p_{b},p_{c}} 46 % , 42 % , 12 % , n = 1013 {\displaystyle 46\%,42\%,12\%,n=1013} M O E 95 ( P a ) {\displaystyle MOE_{95}(P_{a})} p a {\displaystyle p_{a}}

Si, hipotéticamente, realizáramos una encuesta sobre muestras subsiguientes de encuestados (recién extraídos de ) y reportáramos el resultado , podríamos usar el error estándar de la diferencia para entender cómo se espera que caiga alrededor de . Para esto, necesitamos aplicar la suma de varianzas para obtener una nueva varianza, , P {\displaystyle P} n {\displaystyle n} N {\displaystyle N} p w = p a p b {\displaystyle p_{w}=p_{a}-p_{b}} p w 1 , p w 2 , p w 3 , {\displaystyle p_{w_{1}},p_{w_{2}},p_{w_{3}},\ldots } p w ¯ {\displaystyle {\overline {p_{w}}}} σ P w 2 {\displaystyle \sigma _{P_{w}}^{2}}

σ P w 2 = σ P a P b 2 = σ P a 2 + σ P b 2 2 σ P a , P b = p a ( 1 p a ) + p b ( 1 p b ) + 2 p a p b {\displaystyle \sigma _{P_{w}}^{2}=\sigma _{P_{a}-P_{b}}^{2}=\sigma _{P_{a}}^{2}+\sigma _{P_{b}}^{2}-2\sigma _{P_{a},P_{b}}=p_{a}(1-p_{a})+p_{b}(1-p_{b})+2p_{a}p_{b}}

¿Dónde está la covarianza de y ? σ P a , P b = P a P b {\displaystyle \sigma _{P_{a},P_{b}}=-P_{a}P_{b}} P a {\displaystyle P_{a}} P b {\displaystyle P_{b}}

Así (después de simplificar),

Standard error of difference = σ w ¯ σ P w 2 n = p a + p b ( p a p b ) 2 n = 0.029 , P w = P a P b {\displaystyle {\text{Standard error of difference}}=\sigma _{\overline {w}}\approx {\sqrt {\frac {\sigma _{P_{w}}^{2}}{n}}}={\sqrt {\frac {p_{a}+p_{b}-(p_{a}-p_{b})^{2}}{n}}}=0.029,P_{w}=P_{a}-P_{b}}
M O E 95 ( P a ) = z 0.95 σ p a ¯ ± 3.1 % {\displaystyle MOE_{95}(P_{a})=z_{0.95}\sigma _{\overline {p_{a}}}\approx \pm {3.1\%}}
M O E 95 ( P w ) = z 0.95 σ w ¯ ± 5.8 % {\displaystyle MOE_{95}(P_{w})=z_{0.95}\sigma _{\overline {w}}\approx \pm {5.8\%}}

Tenga en cuenta que esto supone que es casi constante, es decir, los encuestados que eligen A o B casi nunca elegirían C (lo que hace que y estén casi perfectamente correlacionados negativamente ). Con tres o más opciones en disputa, elegir una fórmula correcta para se vuelve más complicado. P c {\displaystyle P_{c}} P a {\displaystyle P_{a}} P b {\displaystyle P_{b}} σ P w 2 {\displaystyle \sigma _{P_{w}}^{2}}

Efecto del tamaño finito de la población

Las fórmulas anteriores para el margen de error suponen que hay una población infinitamente grande y, por lo tanto, no dependen del tamaño de la población , sino solo del tamaño de la muestra . Según la teoría del muestreo , esta suposición es razonable cuando la fracción de muestreo es pequeña. El margen de error para un método de muestreo en particular es esencialmente el mismo independientemente de si la población de interés es del tamaño de una escuela, una ciudad, un estado o un país, siempre que la fracción de muestreo sea pequeña. N {\displaystyle N} n {\displaystyle n}

En los casos en que la fracción de muestreo es mayor (en la práctica, mayor del 5%), los analistas pueden ajustar el margen de error utilizando una corrección de población finita para tener en cuenta la precisión adicional obtenida al muestrear un porcentaje mucho mayor de la población. El FPC se puede calcular utilizando la fórmula [2]

FPC = N n N 1 {\displaystyle \operatorname {FPC} ={\sqrt {\frac {N-n}{N-1}}}}

...y entonces, si la encuesta se realizara sobre el 24% de, digamos, un electorado de 300.000 votantes, P {\displaystyle P}

M O E 95 ( 0.5 ) = z 0.95 σ p ¯ 0.98 72 , 000 = ± 0.4 % {\displaystyle MOE_{95}(0.5)=z_{0.95}\sigma _{\overline {p}}\approx {\frac {0.98}{\sqrt {72,000}}}=\pm 0.4\%}
M O E 95 F P C ( 0.5 ) = z 0.95 σ p ¯ N n N 1 0.98 72 , 000 300 , 000 72 , 000 300 , 000 1 = ± 0.3 % {\displaystyle MOE_{95_{FPC}}(0.5)=z_{0.95}\sigma _{\overline {p}}{\sqrt {\frac {N-n}{N-1}}}\approx {\frac {0.98}{\sqrt {72,000}}}{\sqrt {\frac {300,000-72,000}{300,000-1}}}=\pm 0.3\%}

Intuitivamente, para un tamaño apropiado , N {\displaystyle N}

lim n 0 N n N 1 1 {\displaystyle \lim _{n\to 0}{\sqrt {\frac {N-n}{N-1}}}\approx 1}
lim n N N n N 1 = 0 {\displaystyle \lim _{n\to N}{\sqrt {\frac {N-n}{N-1}}}=0}

En el primer caso, es tan pequeño que no requiere corrección. En el segundo caso, la encuesta se convierte en un censo y el error de muestreo se vuelve irrelevante. n {\displaystyle n}

Véase también

Referencias

  1. ^ Siegfried, Tom (3 de julio de 2014). "La comprensión de los intervalos de confianza por parte de los científicos no inspira confianza | Science News". Science News . Consultado el 6 de agosto de 2024 .
  2. ^ Isserlis, L. (1918). "Sobre el valor de una media calculada a partir de una muestra". Journal of the Royal Statistical Society . 81 (1). Blackwell Publishing: 75–81. doi :10.2307/2340569. JSTOR  2340569.(Ecuación 1)

Fuentes

  • Sudman, Seymour y Bradburn, Norman (1982). Hacer preguntas: una guía práctica para el diseño de cuestionarios . San Francisco: Jossey Bass. ISBN 0-87589-546-8 
  • Wonnacott, TH; RJ Wonnacott (1990). Introducción a la estadística (quinta edición). Wiley. ISBN 0-471-61518-8.
Retrieved from "https://en.wikipedia.org/w/index.php?title=Margin_of_error&oldid=1249342352"