Intervalo de confianza

Rango para estimar un parámetro desconocido
Cada fila de puntos es una muestra de la misma distribución normal. Las líneas de colores son intervalos de confianza del 50 % para la media, μ . En el centro de cada intervalo se encuentra la media de la muestra, marcada con un rombo. Los intervalos azules contienen la media de la población y los rojos no.
Esta distribución de probabilidad resalta algunos intervalos de confianza diferentes.

De manera informal, en las estadísticas frecuentistas , un intervalo de confianza ( IC ) es un intervalo que se espera que contenga típicamente el parámetro que se está estimando. Más específicamente, dado un nivel de confianza (95% y 99% son valores típicos), un IC es un intervalo aleatorio que contiene el parámetro que se está estimando % del tiempo. [1] [2] El nivel de confianza , grado de confianza o coeficiente de confianza representa la proporción a largo plazo de IC (en el nivel de confianza dado) que teóricamente contienen el valor verdadero del parámetro; esto es equivalente a la probabilidad de cobertura nominal . Por ejemplo, de todos los intervalos calculados al nivel del 95%, el 95% de ellos debería contener el valor verdadero del parámetro. [3] gamma {\estilo de visualización \gamma} gamma {\estilo de visualización \gamma}

Los factores que afectan la amplitud del IC incluyen el tamaño de la muestra , la variabilidad de la muestra y el nivel de confianza. [4] En igualdad de condiciones, una muestra más grande produce un intervalo de confianza más estrecho, una mayor variabilidad de la muestra produce un intervalo de confianza más amplio y un nivel de confianza más alto produce un intervalo de confianza más amplio. [5]

Historia

Los métodos para calcular intervalos de confianza para la proporción binomial aparecieron a partir de la década de 1920. [6] [7] Las ideas principales de los intervalos de confianza en general se desarrollaron a principios de la década de 1930, [8] [9] [10] y la primera explicación completa y general fue dada por Jerzy Neyman en 1937. [11]

Neyman describió el desarrollo de las ideas de la siguiente manera (los números de referencia han sido cambiados): [10]

[Mi trabajo sobre los intervalos de confianza] se originó alrededor de 1930 a partir de una simple pregunta de Waclaw Pytkowski, entonces estudiante mío en Varsovia, que estaba realizando un estudio empírico sobre economía agrícola. La pregunta era: ¿cómo caracterizar de manera no dogmática la precisión de un coeficiente de regresión estimado? ...

La monografía de Pytkowski... apareció impresa en 1932. [12] Ocurrió que, un poco antes, Fisher publicó su primer artículo [13] sobre distribuciones fiduciales y argumentos fiduciales. De manera bastante inesperada, si bien el marco conceptual del argumento fiducial es completamente diferente al de los intervalos de confianza, las soluciones específicas de varios problemas particulares coincidieron. Así, en el primer artículo en el que presenté la teoría de los intervalos de confianza, publicado en 1934, [8] reconocí la prioridad de Fisher por la idea de que la estimación de intervalos es posible sin ninguna referencia al teorema de Bayes y con la solución siendo independiente de las probabilidades a priori . Al mismo tiempo sugerí suavemente que el enfoque de Fisher al problema implicaba un pequeño malentendido.

En las revistas médicas, los intervalos de confianza se promovieron en la década de 1970, pero recién se empezaron a utilizar ampliamente en la década de 1980. [14] En 1988, las revistas médicas exigían la presentación de intervalos de confianza. [15]

Definición

Sea una muestra aleatoria de una distribución de probabilidad con parámetro estadístico , que es una cantidad a estimar, y , que representa cantidades que no son de interés inmediato. Un intervalo de confianza para el parámetro , con nivel de confianza o coeficiente , es un intervalo determinado por variables aleatorias y con la propiedad: incógnita {\estilo de visualización X} θ {\estilo de visualización \theta} φ {\estilo de visualización \varphi} θ {\estilo de visualización \theta} gamma {\estilo de visualización \gamma} ( ( incógnita ) , en ( incógnita ) ) {\displaystyle (u(X),v(X))} ( incógnita ) {\displaystyle u(X)} en ( incógnita ) {\displaystyle v(X)}

PAG ( ( incógnita ) < θ < en ( incógnita ) ) = gamma  Para cada uno  ( θ , φ ) . {\displaystyle P(u(X)<\theta <v(X))=\gamma \quad {\text{ para cada }}(\theta ,\varphi ).}

El número , cuyo valor típico es cercano pero no mayor que 1, a veces se da en la forma (o como porcentaje ), donde es un número positivo pequeño, a menudo 0,05. gamma {\estilo de visualización \gamma} 1 alfa {\estilo de visualización 1-\alfa} 100 % ( 1 alfa ) {\displaystyle 100\%\cdot (1-\alpha )} alfa {\estilo de visualización \alpha}

Es importante que los límites y se especifiquen de tal manera que, siempre que se recopile aleatoriamente, cada vez que calculemos un intervalo de confianza, exista la probabilidad de que contenga , el valor verdadero del parámetro que se está estimando. Esto debería ser válido para cualquier valor real y . [2] ( incógnita ) {\displaystyle u(X)} en ( incógnita ) {\displaystyle v(X)} incógnita {\estilo de visualización X} gamma {\estilo de visualización \gamma} θ {\estilo de visualización \theta} θ {\estilo de visualización \theta} φ {\estilo de visualización \varphi}

Intervalos de confianza aproximados

En muchas aplicaciones, es difícil construir intervalos de confianza que tengan exactamente el nivel de confianza requerido, pero se pueden calcular intervalos aproximados. La regla para construir el intervalo puede aceptarse como que proporciona un intervalo de confianza en el nivel si gamma {\estilo de visualización \gamma}

PAG ( ( incógnita ) < θ < en ( incógnita ) )   gamma  Para cada uno  ( θ , φ ) {\displaystyle P(u(X)<\theta <v(X))\approx \ \gamma \quad {\text{ para cada }}(\theta ,\varphi )}

a un nivel aceptable de aproximación. Alternativamente, algunos autores [16] simplemente requieren que

PAG ( ( incógnita ) < θ < en ( incógnita ) )   gamma  Para cada uno  ( θ , φ ) , {\displaystyle P(u(X)<\theta <v(X))\geq \ \gamma \quad {\text{ para cada }}(\theta ,\varphi ),}

lo cual es útil si las probabilidades están solo parcialmente identificadas o son imprecisas , y también cuando se trabaja con distribuciones discretas . Límites de confianza de la forma

PAG ( ( incógnita ) < θ )   gamma {\displaystyle P(u(X)<\theta )\geq \ \gamma }   y   PAG ( θ < en ( incógnita ) ) gamma {\displaystyle P(\theta <v(X))\geq \gamma }

se denominan conservadores ; [17] (p. 210) en consecuencia, se habla de intervalos de confianza conservadores y, en general, de regiones.

Propiedades deseadas

Al aplicar procedimientos estadísticos estándar, a menudo habrá formas estándar de construir intervalos de confianza. Estos se habrán ideado de modo que cumplan con ciertas propiedades deseables, que se mantendrán siempre que los supuestos en los que se basa el procedimiento sean verdaderos. Estas propiedades deseables pueden describirse como: validez, optimalidad e invariancia.

De las tres, la "validez" es la más importante, seguida de cerca por la "optimalidad". La "invariancia" puede considerarse una propiedad del método de derivación de un intervalo de confianza, más que de la regla para construir el intervalo. En aplicaciones no estándar, se buscarían estas mismas propiedades deseables:

Validez

Esto significa que la probabilidad de cobertura nominal (nivel de confianza) del intervalo de confianza debe mantenerse, ya sea exactamente o con una buena aproximación.

Optimalidad

Esto significa que la regla para construir el intervalo de confianza debe aprovechar al máximo la información del conjunto de datos.

Una forma de evaluar la optimalidad es mediante el ancho del intervalo, de modo que una regla para construir un intervalo de confianza se considera mejor que otra si conduce a intervalos cuyos anchos son típicamente más cortos.

Invariancia

En muchas aplicaciones, la cantidad que se está estimando podría no estar definida con precisión como tal.

Por ejemplo, una encuesta puede dar como resultado una estimación del ingreso medio de una población, pero también puede considerarse que proporciona una estimación del logaritmo del ingreso medio, dado que se trata de una escala común para presentar resultados gráficos. Sería deseable que el método utilizado para construir un intervalo de confianza para el ingreso medio diera resultados equivalentes cuando se aplicara para construir un intervalo de confianza para el logaritmo del ingreso medio: en concreto, los valores en los extremos del último intervalo serían los logaritmos de los valores en los extremos del primer intervalo.

Métodos de derivación

En el caso de aplicaciones no estándar, existen varias vías que se pueden tomar para derivar una regla para la construcción de intervalos de confianza. Las reglas establecidas para procedimientos estándar se pueden justificar o explicar a través de varias de estas vías. Por lo general, una regla para construir intervalos de confianza está estrechamente vinculada a una forma particular de encontrar una estimación puntual de la cantidad que se está considerando.

Resumen de estadísticas

Esto está estrechamente relacionado con el método de los momentos para la estimación. Un ejemplo sencillo surge cuando la cantidad que se va a estimar es la media de la población, en cuyo caso una estimación natural es la media de la muestra. De manera similar, la varianza de la muestra se puede utilizar para estimar la varianza de la población. Se puede construir un intervalo de confianza para la media verdadera centrado en la media de la muestra con un ancho que sea un múltiplo de la raíz cuadrada de la varianza de la muestra.

Teoría de la probabilidad

Las estimaciones se pueden construir utilizando el principio de máxima verosimilitud ; la teoría de verosimilitud proporciona dos formas de construir intervalos de confianza o regiones de confianza para las estimaciones.

Estimación de ecuaciones

El método de estimación que se utiliza en este caso puede considerarse tanto una generalización del método de momentos como una generalización del método de máxima verosimilitud. Existen generalizaciones correspondientes de los resultados de la teoría de máxima verosimilitud que permiten construir intervalos de confianza basados ​​en estimaciones derivadas de ecuaciones de estimación . [ cita requerida ]

Prueba de hipótesis

Si existen pruebas de hipótesis para valores generales de un parámetro, entonces se pueden construir intervalos/regiones de confianza incluyendo en la región de confianza del 100 p  % todos aquellos puntos para los cuales la prueba de hipótesis de la hipótesis nula de que el valor verdadero es el valor dado no se rechaza a un nivel de significancia de (1 − p ). [17] (§ 7.2 (iii))

Arranque

En situaciones en las que los supuestos distributivos de los métodos anteriores son inciertos o no se cumplen, los métodos de remuestreo permiten construir intervalos de confianza o intervalos de predicción. La distribución de datos observada y las correlaciones internas se utilizan como sustitutos de las correlaciones en la población más amplia.

Teorema del límite central

El teorema del límite central es un refinamiento de la ley de los grandes números . Para un gran número de variables aleatorias independientes distribuidas de forma idéntica con varianza finita, el promedio tiene aproximadamente una distribución normal, sin importar cuál sea la distribución de , y la aproximación mejora aproximadamente en proporción a . [2] incógnita 1 , . . . , incógnita norte , {\displaystyle X_{1},...,X_{n},} incógnita ¯ norte {\displaystyle {\overline {X}}_{n}} incógnita i Estilo de visualización X_{i}} norte {\displaystyle {\sqrt {n}}}

Ejemplo

En este gráfico de barras , los extremos superiores de las barras marrones indican las medias observadas y los segmentos de línea rojos (" barras de error ") representan los intervalos de confianza que los rodean. Aunque las barras de error se muestran simétricas en torno a las medias, ese no siempre es el caso. En la mayoría de los gráficos, las barras de error no representan intervalos de confianza (por ejemplo, a menudo representan errores estándar o desviaciones estándar).

Supongamos que es una muestra independiente de una población distribuida normalmente con parámetros desconocidos media y varianza Sea incógnita 1 , , incógnita norte {\displaystyle {X_{1},\ldots ,X_{n}}} micras {\estilo de visualización \mu} σ 2 . {\displaystyle \sigma ^{2}.}

incógnita ¯ = incógnita 1 + + incógnita norte norte , {\displaystyle {\bar {X}}={\frac {X_{1}+\cdots +X_{n}}{n}},}
S 2 = 1 norte 1 i = 1 norte ( incógnita i incógnita ¯ ) 2 . {\displaystyle S^{2}={\frac {1}{n-1}}\sum _{i=1}^{n}(X_{i}-{\bar {X}})^{2}.}

¿Dónde está la media de la muestra y es la varianza de la muestra ? Entonces incógnita ¯ {\estilo de visualización {\bar {X}}} S 2 Estilo de visualización S2

yo = incógnita ¯ micras S / norte {\displaystyle T={\frac {{\bar {X}}-\mu }{S/{\sqrt {n}}}}}

tiene una distribución t de Student con grados de libertad. [18] Nótese que la distribución de no depende de los valores de los parámetros no observables y ; es decir, es una cantidad fundamental . Supongamos que quisiéramos calcular un intervalo de confianza del 95% para Entonces, denotando como el percentil 97,5 de esta distribución, norte 1 {\estilo de visualización n-1} yo {\estilo de visualización T} micras {\estilo de visualización \mu} σ 2 {\displaystyle \sigma ^{2}} micras . {\estilo de visualización \mu .} do {\estilo de visualización c}

PAG yo ( do yo do ) = 0,95. {\displaystyle P_{T}(-c\leq T\leq c)=0,95.}

Tenga en cuenta que "97,5" y "0,95" son correctos en las expresiones anteriores. Hay una probabilidad del 2,5 % de que sea menor que y una probabilidad del 2,5 % de que sea mayor que Por lo tanto, la probabilidad de que esté entre y es del 95 %. es la medida de probabilidad según la distribución de Student. yo {\estilo de visualización T} do {\estilo de visualización -c} + do . {\estilo de visualización +c.} yo {\estilo de visualización T} do {\estilo de visualización -c} + do {\estilo de visualización +c} PAG yo Estilo de visualización P_{T} a {\estilo de visualización t}

Como consecuencia,

PAG micras ( incógnita ¯ do S norte micras incógnita ¯ + do S norte ) = 0,95 , {\displaystyle P_{\mu }\left({\bar {X}}-{\frac {cS}{\sqrt {n}}}\leq \mu \leq {\bar {X}}+{\frac {cS}{\sqrt {n}}}\right)=0,95,}

y tenemos un intervalo de confianza teórico (estocástico) del 95% para Aquí está la medida de probabilidad bajo una distribución desconocida de . micras . {\estilo de visualización \mu .} PAG micras {\displaystyle P_{\mu}} micras {\estilo de visualización \mu}

Después de observar la muestra, encontramos valores para y para a partir de los cuales calculamos el intervalo de confianza. incógnita ¯ {\estilo de visualización {\barra {x}}} incógnita ¯ {\estilo de visualización {\bar {X}}} s {\estilo de visualización s} S , {\estilo de visualización S,}

[ incógnita ¯ do s norte , incógnita ¯ + do s norte ] . {\displaystyle \left[{\bar {x}}-{\frac {cs}{\sqrt {n}}},{\bar {x}}+{\frac {cs}{\sqrt {n}}}\right].}

Interpretación

Se pueden dar varias interpretaciones de un intervalo de confianza (tomando como ejemplo a continuación el intervalo de confianza del 95%).

  • El intervalo de confianza se puede expresar en términos de una frecuencia de largo plazo en muestras repetidas (o en un nuevo muestreo ): "Si este procedimiento se repitiera en numerosas muestras, la proporción de intervalos de confianza del 95% calculados que abarcaran el valor real del parámetro de población tendería hacia el 95%". [19]
  • El intervalo de confianza se puede expresar en términos de probabilidad con respecto a una única muestra teórica (aún por realizarse): "Existe una probabilidad del 95% de que el intervalo de confianza del 95% calculado a partir de una muestra futura dada cubra el valor real del parámetro de población". [11] Esto esencialmente reformula la interpretación de las "muestras repetidas" como una probabilidad en lugar de una frecuencia.
  • El intervalo de confianza se puede expresar en términos de significancia estadística, por ejemplo: "El intervalo de confianza del 95% representa valores que no son estadísticamente significativamente diferentes de la estimación puntual en el nivel .05". [20]
Interpretación del intervalo de confianza del 95% en términos de significancia estadística.

Malentendidos comunes

Gráfico de 50 intervalos de confianza de 50 muestras generadas a partir de una distribución normal.

Los intervalos y niveles de confianza se malinterpretan con frecuencia, y estudios publicados han demostrado que incluso los científicos profesionales a menudo los malinterpretan. [21] [22] [23] [24] [25] [26]

  • Un nivel de confianza del 95% no significa que para un intervalo determinado exista una probabilidad del 95% de que el parámetro de la población se encuentre dentro del intervalo (es decir, una probabilidad del 95% de que el intervalo cubra el parámetro de la población). [27] Según la interpretación frecuentista, una vez calculado un intervalo, este intervalo cubre el valor del parámetro o no lo hace; ya no es una cuestión de probabilidad. La probabilidad del 95% se relaciona con la confiabilidad del procedimiento de estimación, no con un intervalo calculado específico. [28] El propio Neyman (el defensor original de los intervalos de confianza) señaló este punto en su artículo original: [11]

    Se observará que en la descripción anterior, las afirmaciones de probabilidad se refieren a los problemas de estimación con los que se ocupará el estadístico en el futuro. De hecho, he afirmado repetidamente que la frecuencia de resultados correctos tenderá a α . Consideremos ahora el caso en el que ya se ha extraído una muestra y los cálculos han dado [límites particulares]. ¿Podemos decir que en este caso particular la probabilidad del valor verdadero [que se encuentre entre estos límites] es igual a α ? La respuesta es obviamente negativa. El parámetro es una constante desconocida y no se puede hacer ninguna afirmación de probabilidad sobre su valor...

  • Un nivel de confianza del 95% no significa que el 95% de los datos de la muestra se encuentren dentro del intervalo de confianza.
  • Un nivel de confianza del 95% no significa que exista una probabilidad del 95% de que la estimación del parámetro a partir de una repetición del experimento caiga dentro del intervalo de confianza calculado a partir de un experimento dado. [25]

Ejemplos de cómo la interpretación ingenua de los intervalos de confianza puede ser problemática

Procedimiento de confianza para la ubicación uniforme

Welch [29] presentó un ejemplo que muestra claramente la diferencia entre la teoría de los intervalos de confianza y otras teorías de estimación de intervalos (incluidos los intervalos fiduciales de Fisher y los intervalos bayesianos objetivos ). Robinson [30] llamó a este ejemplo "posiblemente el contraejemplo más conocido de la versión de Neyman de la teoría de los intervalos de confianza". Para Welch, mostraba la superioridad de la teoría de los intervalos de confianza; para los críticos de la teoría, muestra una deficiencia. Aquí presentamos una versión simplificada.

Supongamos que son observaciones independientes de una distribución uniforme . Entonces, el procedimiento óptimo con un 50 % de confianza para es [31] incógnita 1 , incógnita 2 Estilo de visualización X_{1}, X_{2}} ( θ 1 / 2 , θ + 1 / 2 ) {\displaystyle (\theta -1/2,\theta +1/2)} θ {\estilo de visualización \theta}

incógnita ¯ ± { | incógnita 1 incógnita 2 | 2 si  | incógnita 1 incógnita 2 | < 1 / 2 1 | incógnita 1 incógnita 2 | 2 si  | incógnita 1 incógnita 2 | 1 / 2. {\displaystyle {\bar {X}}\pm {\begin{cases}{\dfrac {|X_{1}-X_{2}|}{2}}&{\text{if }}|X_{1}-X_{2}|<1/2\\[8pt]{\dfrac {1-|X_{1}-X_{2}|}{2}}&{\text{if }}|X_{1}-X_{2}|\geq 1/2.\end{cases}}}

Se puede utilizar un argumento bayesiano fiducial u objetivo para derivar la estimación del intervalo

X ¯ ± 1 | X 1 X 2 | 4 , {\displaystyle {\bar {X}}\pm {\frac {1-|X_{1}-X_{2}|}{4}},}

que también es un procedimiento de confianza del 50%. Welch demostró que el primer procedimiento de confianza domina al segundo, según los desiderata de la teoría del intervalo de confianza; para cada , la probabilidad de que el primer procedimiento contenga es menor o igual que la probabilidad de que el segundo procedimiento contenga . El ancho promedio de los intervalos del primer procedimiento es menor que el del segundo. Por lo tanto, el primer procedimiento es el preferido según la teoría clásica del intervalo de confianza. θ 1 θ {\displaystyle \theta _{1}\neq \theta } θ 1 {\displaystyle \theta _{1}} θ 1 {\displaystyle \theta _{1}}

Sin embargo, cuando , se garantiza que los intervalos del primer procedimiento contienen el valor verdadero : Por lo tanto, el coeficiente de confianza nominal del 50% no está relacionado con la incertidumbre que deberíamos tener de que un intervalo específico contenga el valor verdadero. El segundo procedimiento no tiene esta propiedad. | X 1 X 2 | 1 / 2 {\displaystyle |X_{1}-X_{2}|\geq 1/2} θ {\displaystyle \theta }

Además, cuando el primer procedimiento genera un intervalo muy corto, esto indica que están muy próximos entre sí y, por lo tanto, solo ofrecen la información en un único punto de datos. Sin embargo, el primer intervalo excluirá casi todos los valores razonables del parámetro debido a su ancho reducido. El segundo procedimiento no tiene esta propiedad. X 1 , X 2 {\displaystyle X_{1},X_{2}}

Las dos propiedades contraintuitivas del primer procedimiento ( cobertura del 100 % cuando están muy separados y cobertura de casi el 0 % cuando están muy juntos) se equilibran para dar como resultado una cobertura del 50 % en promedio. Sin embargo, a pesar de que el primer procedimiento es óptimo, sus intervalos no ofrecen una evaluación de la precisión de la estimación ni una evaluación de la incertidumbre que uno debería tener de que el intervalo contenga el valor verdadero. X 1 , X 2 {\displaystyle X_{1},X_{2}} X 1 , X 2 {\displaystyle X_{1},X_{2}}

Este ejemplo se utiliza para argumentar en contra de las interpretaciones ingenuas de los intervalos de confianza. Si se afirma que un procedimiento de confianza tiene propiedades que van más allá de las de la cobertura nominal (como la relación con la precisión o una relación con la inferencia bayesiana), esas propiedades deben demostrarse; no se deducen del hecho de que un procedimiento sea un procedimiento de confianza.

Procedimiento de confianza paraω2

Steiger [32] sugirió una serie de procedimientos de confianza para medidas de tamaño de efecto comunes en ANOVA . Morey et al. [27] señalan que varios de estos procedimientos de confianza, incluido el de ω 2 , tienen la propiedad de que a medida que la estadística F se vuelve cada vez más pequeña (lo que indica un desajuste con todos los valores posibles de ω 2 ) , el intervalo de confianza se contrae e incluso puede contener solo el valor único ω 2  = 0; es decir, el IC es infinitesimalmente estrecho (esto ocurre cuando se trata de un IC). p 1 α / 2 {\displaystyle p\geq 1-\alpha /2} 100 ( 1 α ) % {\displaystyle 100(1-\alpha )\%}

Este comportamiento es consistente con la relación entre el procedimiento de confianza y la prueba de significancia : como F se vuelve tan pequeño que las medias del grupo están mucho más cerca unas de otras de lo que esperaríamos por casualidad, una prueba de significancia podría indicar rechazo para la mayoría o todos los valores de ω 2 . Por lo tanto, el intervalo será muy estrecho o incluso vacío (o, por una convención sugerida por Steiger, conteniendo solo 0). Sin embargo, esto no indica que la estimación de ω 2 sea muy precisa. En cierto sentido, indica lo contrario: que la confiabilidad de los resultados mismos puede estar en duda. Esto es contrario a la interpretación común de los intervalos de confianza de que revelan la precisión de la estimación.

Véase también

Intervalo de confianza para distribuciones específicas

Referencias

  1. ^ Zar, Jerrold H. (199). Análisis bioestadístico (4.ª ed.). Upper Saddle River, Nueva Jersey: Prentice Hall. Págs. 43-45. ISBN. 978-0130815422.OCLC 39498633  .
  2. ^ abc Dekking, Frederik Michel; Kraaikamp, ​​Cornelis; Lopuhaä, Hendrik Paul; Meester, Ludolf Erwin (2005). "Una introducción moderna a la probabilidad y la estadística". Textos Springer en Estadística . doi :10.1007/1-84628-168-7. ISBN 978-1-85233-896-1. ISSN  1431-875X.
  3. ^ Illowsky, Barbara. Introducción a la estadística . Dean, Susan L., 1945-, Illowsky, Barbara., OpenStax College. Houston, Texas. ISBN 978-1-947172-05-0.OCLC 899241574  .
  4. ^ Hazra, Avijit (octubre de 2017). "Uso del intervalo de confianza con seguridad". Journal of Thoracic Disease . 9 (10): 4125–4130. doi : 10.21037/jtd.2017.09.14 . ISSN  2072-1439. PMC 5723800 . PMID  29268424. 
  5. ^ Khare, Vikas; Nema, Savita; Baredar, Prashant (2020). Modelado y simulación de energía oceánica con inteligencia computacional de big data para la optimización de sistemas y la integración de la red. Butterworth-Heinemann. ISBN 978-0-12-818905-4.OCLC 1153294021  .
  6. ^ Edwin B. Wilson (1927) Inferencia probable, ley de sucesión e inferencia estadística, Journal of the American Statistical Association, 22:158, 209-212, https://doi.org/10.1080/01621459.1927.10502953
  7. ^ CJ Clopper, ES Pearson, El uso de límites de confianza o fiduciales ilustrados en el caso del binomio, Biometrika 26(4), 1934, páginas 404–413, https://doi.org/10.1093/biomet/26.4.404
  8. ^ ab Neyman, J. (1934). Sobre los dos aspectos diferentes del método representativo: el método de muestreo estratificado y el método de selección intencional. Journal of the Royal Statistical Society, 97(4), 558–625. https://doi.org/10.2307/2342192 (véase la nota I en el apéndice)
  9. ^ J. Neyman (1935), Ann. Math. Statist. 6(3): 111-116 (septiembre de 1935). https://doi.org/10.1214/aoms/1177732585
  10. ^ ab Neyman, J. (1970). Una mirada a algunas de mis experiencias personales en el proceso de investigación. En Scientists at Work: Festschrift in honour of Herman Wold. Editado por T. Dalenius, G. Karlsson, S. Malmquist. Almqvist & Wiksell, Estocolmo. https://worldcat.org/en/title/195948
  11. ^ abc Neyman, J. (1937). "Esquema de una teoría de estimación estadística basada en la teoría clásica de la probabilidad". Philosophical Transactions of the Royal Society A . 236 (767): 333–380. Bibcode :1937RSPTA.236..333N. doi : 10.1098/rsta.1937.0005 . JSTOR  91337.
  12. ^ Pytkowski, W., La dependencia de los ingresos en las pequeñas explotaciones agrícolas con respecto a su superficie, el gasto y el capital invertido en vacas. (Polaco, resumen en inglés) Bibliotaka Palawska, 1932.
  13. ^ Fisher, R. (1930). Probabilidad inversa. Actas matemáticas de la Cambridge Philosophical Society, 26(4), 528-535. https://doi.org/10.1017/S0305004100016297
  14. ^ Altman, Douglas G. (1991). "Estadísticas en revistas médicas: desarrollos en la década de 1980". Estadísticas en Medicina . 10 (12): 1897–1913. doi :10.1002/sim.4780101206. ISSN  1097-0258. PMID  1805317.
  15. ^ Gardner, Martin J.; Altman, Douglas G. (1988). "Estimación con confianza". British Medical Journal . 296 (6631): 1210–1211. doi :10.1136/bmj.296.6631.1210. PMC 2545695 . PMID  3133015. 
  16. ^ Roussas, George G. (1997). Un curso de estadística matemática (2.ª ed.). Academic Press. pág. 397.
  17. ^ ab Cox, DR; Hinkley, DV (1974). Estadística teórica . Chapman & Hall.
  18. ^ Rees, DG (2001). Essential Statistics , 4.ª edición, Chapman y Hall/CRC. ISBN 1-58488-007-4 (sección 9.5) 
  19. ^ Cox DR, Hinkley DV (1974) Estadística teórica , Chapman & Hall, pág. 49, pág. 209
  20. ^ Cox DR, Hinkley DV (1974) Estadística teórica, Chapman & Hall, págs. 214, 225, 233
  21. ^ Kalinowski, Pawel (2010). "Identificación de conceptos erróneos sobre los intervalos de confianza" (PDF) . Consultado el 22 de diciembre de 2021 .
  22. ^ "Copia archivada" (PDF) . Archivado desde el original (PDF) el 4 de marzo de 2016. Consultado el 16 de septiembre de 2014 .{{cite web}}: CS1 maint: archived copy as title (link)
  23. ^ Hoekstra, R., RD ​​Morey, JN Rouder y EJ. Wagenmakers, 2014. Interpretación errónea robusta de los intervalos de confianza. Psychonomic Bulletin & Review, vol. 21, n.º 5, págs. 1157-1164. [1]
  24. ^ La comprensión de los intervalos de confianza por parte de los científicos no inspira confianza, Science News , 3 de julio de 2014
  25. ^ ab Greenland, Sander; Senn, Stephen J.; Rothman, Kenneth J.; Carlin, John B.; Poole, Charles; Goodman, Steven N.; Altman, Douglas G. (abril de 2016). "Pruebas estadísticas, valores P, intervalos de confianza y potencia: una guía para las interpretaciones erróneas". Revista Europea de Epidemiología . 31 (4): 337–350. doi :10.1007/s10654-016-0149-3. ISSN  0393-2990. PMC 4877414 . PMID  27209009. 
  26. ^ Helske, Jouni; Helske, Satu; Cooper, Matthew; Ynnerman, Anders; Besancon, Lonni (1 de agosto de 2021). "¿Puede la visualización aliviar el pensamiento dicotómico? Efectos de las representaciones visuales en el efecto acantilado". Transacciones IEEE sobre visualización y gráficos por computadora . 27 (8). Instituto de Ingenieros Eléctricos y Electrónicos (IEEE): 3397–3409. arXiv : 2002.07671 . doi :10.1109/tvcg.2021.3073466. ISSN  1077-2626. PMID  33856998. S2CID  233230810.
  27. ^ ab Morey, RD; Hoekstra, R.; Rouder, JN; Lee, MD; Wagenmakers, E.-J. (2016). "La falacia de depositar confianza en los intervalos de confianza". Psychonomic Bulletin & Review . 23 (1): 103–123. doi :10.3758/s13423-015-0947-8. PMC 4742505 . PMID  26450628. 
  28. ^ "1.3.5.2. Límites de confianza para la media". nist.gov . Archivado desde el original el 2008-02-05 . Consultado el 2014-09-16 .
  29. ^ Welch, BL (1939). "Sobre límites de confianza y suficiencia, con especial referencia a parámetros de ubicación". Anales de estadística matemática . 10 (1): 58–69. doi : 10.1214/aoms/1177732246 . JSTOR  2235987.
  30. ^ Robinson, GK (1975). "Algunos contraejemplos de la teoría de los intervalos de confianza". Biometrika . 62 (1): 155–161. doi :10.2307/2334498. JSTOR  2334498.
  31. ^ Pratt, JW (1961). "Reseña del libro: Prueba de hipótesis estadísticas. por EL Lehmann". Revista de la Asociación Estadounidense de Estadística . 56 (293): 163–167. doi :10.1080/01621459.1961.10482103. JSTOR  2282344.
  32. ^ Steiger, JH (2004). "Más allá de la prueba F: intervalos de confianza del tamaño del efecto y pruebas de ajuste estrecho en el análisis de varianza y análisis de contraste". Psychological Methods . 9 (2): 164–182. doi :10.1037/1082-989x.9.2.164. PMID  15137887.

Bibliografía

  • "Estimación de confianza", Enciclopedia de Matemáticas , EMS Press , 2001 [1994]
  • Fisher, RA (1956) Métodos estadísticos e inferencia científica. Oliver y Boyd, Edimburgo. (Véase pág. 32.)
  • Freund, JE (1962) Estadística matemática Prentice Hall, Englewood Cliffs, NJ. (Véase págs. 227-228.)
  • Hacking, I. (1965) Lógica de la inferencia estadística. Cambridge University Press, Cambridge. ISBN 0-521-05165-7 
  • Keeping, ES (1962) Introducción a la inferencia estadística. D. Van Nostrand, Princeton, NJ.
  • Kiefer, J. (1977). "Declaraciones de confianza condicional y estimadores de confianza (con discusión)". Revista de la Asociación Estadounidense de Estadística . 72 (360a): 789–827. doi :10.1080/01621459.1977.10479956. JSTOR  2286460.
  • Mayo, DG (1981) "En defensa de la teoría de los intervalos de confianza de Neyman-Pearson", Filosofía de la Ciencia , 48 (2), 269–280. JSTOR  187185.
  • Mehta, S. (2014) Temas de estadística . ISBN 978-1-4992-7353-3 . 
  • Morey, RD; Hoekstra, R.; Rouder, JN; Lee, MD; Wagenmakers, E.-J. (2016). "La falacia de depositar la confianza en los intervalos de confianza". Psychonomic Bulletin & Review . 23 (1): 103–123. doi :10.3758/s13423-015-0947-8. PMC  4742505 . PMID  26450628.
  • Neyman, J. (1937) "Esquema de una teoría de estimación estadística basada en la teoría clásica de la probabilidad" Philosophical Transactions of the Royal Society of London A, 236 , 333–380. (Obra seminal)
  • Robinson, GK (1975). "Algunos contraejemplos de la teoría de los intervalos de confianza". Biometrika . 62 (1): 155–161. doi :10.1093/biomet/62.1.155. JSTOR  2334498.
  • Savage, LJ (1962), Los fundamentos de la inferencia estadística . Methuen, Londres.
  • Smithson, M. (2003) Intervalos de confianza . Serie Aplicaciones cuantitativas en las ciencias sociales, n.º 140. Belmont, CA: SAGE Publications. ISBN 978-0-7619-2499-9 . 
  • El software exploratorio para intervalos de confianza es un tutorial de programas que se ejecutan en Excel
  • Calculadoras de intervalos de confianza para R-cuadrados, coeficientes de regresión e intersecciones de regresión
  • Weisstein, Eric W. "Intervalo de confianza". MathWorld .
  • CAUSEweb.org Muchos recursos para la enseñanza de estadística, incluidos los intervalos de confianza.
  • Una introducción interactiva a los intervalos de confianza
  • Intervalos de confianza: nivel de confianza, tamaño de la muestra y margen de error por Eric Schulz, Wolfram Demonstrations Project .
  • Intervalos de confianza en salud pública Archivado el 9 de agosto de 2016 en Wayback Machine . Descripción sencilla con ejemplos y qué hacer con muestras de tamaño pequeño o tasas cercanas a 0.
Retrieved from "https://en.wikipedia.org/w/index.php?title=Confidence_interval&oldid=1247609759"