El bootstrapping es un procedimiento para estimar la distribución de un estimador mediante el remuestreo (a menudo con reemplazo ) de los datos propios o de un modelo estimado a partir de los datos. [1] El bootstrapping asigna medidas de precisión ( sesgo , varianza, intervalos de confianza , error de predicción, etc.) a las estimaciones de muestra. [2] [3] Esta técnica permite estimar la distribución de muestreo de casi cualquier estadística utilizando métodos de muestreo aleatorio. [1]
El bootstrap estima las propiedades de un estimando (como su varianza ) midiendo esas propiedades al muestrear de una distribución aproximada. Una opción estándar para una distribución aproximada es la función de distribución empírica de los datos observados. En el caso en que se pueda suponer que un conjunto de observaciones proviene de una población independiente e idénticamente distribuida , esto se puede implementar construyendo una cantidad de remuestreos con reemplazo, del conjunto de datos observados (y de igual tamaño al conjunto de datos observados). Un resultado clave en el artículo seminal de Efron que introdujo el bootstrap [4] es el desempeño favorable de los métodos bootstrap que usan muestreo con reemplazo en comparación con métodos anteriores como el jackknife que muestrea sin reemplazo. Sin embargo, desde su introducción, se han propuesto numerosas variantes del bootstrap, incluidos métodos que muestrean sin reemplazo o que crean muestras bootstrap más grandes o más pequeñas que los datos originales.
El bootstrap también se puede utilizar para construir pruebas de hipótesis . [5] A menudo se utiliza como una alternativa a la inferencia estadística basada en el supuesto de un modelo paramétrico cuando ese supuesto está en duda, o cuando la inferencia paramétrica es imposible o requiere fórmulas complicadas para el cálculo de errores estándar .
El bootstrap [a] fue descrito por primera vez por Bradley Efron en "Bootstrap methods: another look at the jackknife" (1979), [4] inspirado por trabajos anteriores sobre el jackknife . [6] [7] [8] Se desarrollaron estimaciones mejoradas de la varianza más tarde. [9] [10] Se desarrolló una extensión bayesiana en 1981. [11] El bootstrap acelerado y corregido por sesgo ( ) fue desarrollado por Efron en 1987, [12] y el procedimiento aproximado de intervalo de confianza bootstrap (ABC, o aproximado ) en 1992. [13]
La idea básica del bootstrap es que la inferencia sobre una población a partir de datos de muestra (muestra → población) se puede modelar remuestreando los datos de muestra y realizando inferencia sobre una muestra a partir de datos remuestreados (remuestreado → muestra). [14] Como la población es desconocida, el error verdadero en una estadística de muestra contra su valor de población es desconocido. En los remuestreos bootstrap, la "población" es de hecho la muestra, y esto se conoce; por lo tanto, la calidad de la inferencia de la muestra "verdadera" a partir de datos remuestreados (remuestreado → muestra) es medible.
Más formalmente, el bootstrap funciona tratando la inferencia de la distribución de probabilidad verdadera J , dados los datos originales, como si fuera análoga a una inferencia de la distribución empírica Ĵ , dados los datos remuestreados. La precisión de las inferencias con respecto a Ĵ utilizando los datos remuestreados se puede evaluar porque conocemos Ĵ . Si Ĵ es una aproximación razonable a J , entonces la calidad de la inferencia sobre J se puede inferir a su vez.
Como ejemplo, supongamos que estamos interesados en la altura promedio (o media ) de las personas en todo el mundo. No podemos medir a todas las personas de la población mundial, por lo que, en su lugar, tomamos una muestra de solo una pequeña parte de ella y la medimos. Supongamos que la muestra es de tamaño N ; es decir, medimos las alturas de N individuos. De esa única muestra, solo se puede obtener una estimación de la media. Para razonar sobre la población, necesitamos algún sentido de la variabilidad de la media que hemos calculado. El método bootstrap más simple implica tomar el conjunto de datos original de alturas y, utilizando una computadora, muestrear para formar una nueva muestra (llamada "remuestreo" o muestra bootstrap) que también es de tamaño N . La muestra bootstrap se toma de la original utilizando un muestreo con reemplazo (por ejemplo, podríamos "remuestrear" 5 veces de [1,2,3,4,5] y obtener [2,5,4,4,1]), por lo que, asumiendo que N es suficientemente grande, para todos los fines prácticos hay una probabilidad virtualmente cero de que sea idéntica a la muestra "real" original. Este proceso se repite una gran cantidad de veces (normalmente 1.000 o 10.000 veces) y, para cada una de estas muestras bootstrap, calculamos su media (cada una de ellas se denomina "estimación bootstrap"). Ahora podemos crear un histograma de medias bootstrap. Este histograma proporciona una estimación de la forma de la distribución de la media de la muestra a partir de la cual podemos responder preguntas sobre cuánto varía la media entre las muestras. (El método aquí descrito para la media se puede aplicar a casi cualquier otra estadística o estimador ).
This section includes a list of references, related reading, or external links, but its sources remain unclear because it lacks inline citations. (June 2012) |
Una gran ventaja del bootstrap es su simplicidad. Es una forma directa de derivar estimaciones de errores estándar e intervalos de confianza para estimadores complejos de la distribución, como puntos de percentiles, proporciones, Odds ratio y coeficientes de correlación. Sin embargo, a pesar de su simplicidad, el bootstrap se puede aplicar a diseños de muestreo complejos (por ejemplo, para una población dividida en s estratos con n s observaciones por estrato, el bootstrap se puede aplicar para cada estrato). [15] El bootstrap también es una forma adecuada de controlar y comprobar la estabilidad de los resultados. Aunque para la mayoría de los problemas es imposible conocer el verdadero intervalo de confianza, el bootstrap es asintóticamente más preciso que los intervalos estándar obtenidos utilizando la varianza de la muestra y los supuestos de normalidad. [16] El bootstrap también es un método conveniente que evita el costo de repetir el experimento para obtener otros grupos de datos de muestra.
El bootstrapping depende en gran medida del estimador utilizado y, aunque es simple, su uso ingenuo no siempre arrojará resultados asintóticamente válidos y puede conducir a inconsistencias. [17] Aunque el bootstrapping es (bajo ciertas condiciones) asintóticamente consistente , no proporciona garantías generales para muestras finitas. El resultado puede depender de la muestra representativa. La aparente simplicidad puede ocultar el hecho de que se están haciendo suposiciones importantes al realizar el análisis bootstrap (por ejemplo, independencia de las muestras o un tamaño de muestra lo suficientemente grande) cuando estas se enunciarían de manera más formal en otros enfoques. Además, el bootstrapping puede llevar mucho tiempo y no hay mucho software disponible para el bootstrapping, ya que es difícil automatizarlo utilizando paquetes informáticos estadísticos tradicionales. [15]
Los investigadores han recomendado que se utilicen más muestras de bootstrap a medida que aumenta la capacidad de cómputo disponible. Si los resultados pueden tener consecuencias sustanciales en el mundo real, entonces se deben utilizar tantas muestras como sea razonable, dada la capacidad de cómputo y el tiempo disponibles. Aumentar el número de muestras no puede aumentar la cantidad de información en los datos originales; solo puede reducir los efectos de los errores de muestreo aleatorios que pueden surgir del propio procedimiento de bootstrap. Además, hay evidencia de que un número de muestras mayor que 100 conduce a mejoras insignificantes en la estimación de los errores estándar. [18] De hecho, según el desarrollador original del método de bootstrap, incluso fijar el número de muestras en 50 es probable que conduzca a estimaciones de error estándar bastante buenas. [19]
Adèr et al. recomiendan el procedimiento bootstrap para las siguientes situaciones: [20]
Sin embargo, Athreya ha demostrado [21] que si se realiza un bootstrap ingenuo sobre la media de la muestra cuando la población subyacente carece de una varianza finita (por ejemplo, una distribución de ley de potencia ), entonces la distribución bootstrap no convergerá al mismo límite que la media de la muestra. Como resultado, los intervalos de confianza basados en una simulación de Monte Carlo del bootstrap podrían ser engañosos. Athreya afirma que "A menos que uno esté razonablemente seguro de que la distribución subyacente no tiene cola pesada , uno debería dudar en utilizar el bootstrap ingenuo".
This section includes a list of references, related reading, or external links, but its sources remain unclear because it lacks inline citations. (June 2012) |
En problemas univariados, suele ser aceptable volver a muestrear las observaciones individuales con reemplazo ("remuestreo de casos" a continuación), a diferencia del submuestreo , en el que el remuestreo se realiza sin reemplazo y es válido en condiciones mucho más débiles en comparación con el bootstrap. En muestras pequeñas, puede ser preferible un enfoque bootstrap paramétrico. Para otros problemas, probablemente se prefiera un bootstrap suave .
Para los problemas de regresión, existen otras alternativas disponibles. [2]
El método bootstrap es generalmente útil para estimar la distribución de una estadística (por ejemplo, media, varianza) sin utilizar supuestos de normalidad (como se requiere, por ejemplo, para una estadística z o una estadística t). En particular, el método bootstrap es útil cuando no hay una forma analítica o una teoría asintótica (por ejemplo, un teorema del límite central aplicable ) para ayudar a estimar la distribución de las estadísticas de interés. Esto se debe a que los métodos bootstrap pueden aplicarse a la mayoría de las cantidades aleatorias, por ejemplo, la relación entre la varianza y la media. Hay al menos dos formas de realizar el remuestreo de casos.
Consideremos un experimento de lanzamiento de moneda. Lanzamos la moneda y registramos si cae cara o cruz. Sea X = x 1 , x 2 , …, x 10 10 observaciones del experimento. x i = 1 si el i-ésimo lanzamiento cae cara, y 0 en caso contrario. Invocando el supuesto de que el promedio de los lanzamientos de moneda se distribuye normalmente, podemos usar la estadística t para estimar la distribución de la media de la muestra,
Este supuesto de normalidad se puede justificar como una aproximación de la distribución de cada lanzamiento de moneda individual o como una aproximación de la distribución del promedio de un gran número de lanzamientos de moneda. La primera es una aproximación deficiente porque la distribución real de los lanzamientos de moneda es Bernoulli en lugar de normal. La segunda es una aproximación válida en muestras infinitamente grandes debido al teorema del límite central .
Sin embargo, si no estamos listos para hacer tal justificación, entonces podemos usar el bootstrap en su lugar. Usando el remuestreo de casos, podemos derivar la distribución de . Primero remuestreamos los datos para obtener un remuestreo bootstrap . Un ejemplo del primer remuestreo podría verse así X 1 * = x 2 , x 1 , x 10 , x 10 , x 3 , x 4 , x 6 , x 7 , x 1 , x 9 . Hay algunos duplicados ya que un remuestreo bootstrap proviene del muestreo con reemplazo de los datos. También el número de puntos de datos en un remuestreo bootstrap es igual al número de puntos de datos en nuestras observaciones originales. Luego calculamos la media de este remuestreo y obtenemos la primera media bootstrap : μ 1 *. Repetimos este proceso para obtener el segundo remuestreo X 2 * y calculamos la segunda media bootstrap μ 2 *. Si repetimos esto 100 veces, entonces tenemos μ 1 *, μ 2 *, ..., μ 100 *. Esto representa una distribución bootstrap empírica de la media de la muestra. A partir de esta distribución empírica, se puede derivar un intervalo de confianza bootstrap con el propósito de probar hipótesis.
En los problemas de regresión, el remuestreo de casos se refiere al esquema simple de remuestreo de casos individuales, a menudo filas de un conjunto de datos . Para los problemas de regresión, siempre que el conjunto de datos sea bastante grande, este esquema simple suele ser aceptable. [ cita requerida ] Sin embargo, el método está abierto a críticas [ cita requerida ] . [15]
En los problemas de regresión, las variables explicativas suelen ser fijas o, al menos, se observan con más control que la variable de respuesta. Además, el rango de las variables explicativas define la información disponible a partir de ellas. Por lo tanto, volver a muestrear los casos significa que cada muestra de bootstrap perderá algo de información. Por lo tanto, se deben considerar procedimientos de bootstrap alternativos.
El bootstrapping se puede interpretar en un marco bayesiano utilizando un esquema que crea nuevos conjuntos de datos a través de la reponderación de los datos iniciales. Dado un conjunto de puntos de datos, la ponderación asignada al punto de datos en un nuevo conjunto de datos es , donde es una lista ordenada de menor a mayor de números aleatorios distribuidos uniformemente en , precedida por 0 y seguida por 1. Las distribuciones de un parámetro inferidas a partir de la consideración de muchos de esos conjuntos de datos son entonces interpretables como distribuciones posteriores en ese parámetro. [23]
En este esquema, se añade una pequeña cantidad de ruido aleatorio centrado en cero (generalmente distribuido normalmente) a cada observación remuestreada. Esto es equivalente a muestrear a partir de una estimación de densidad kernel de los datos. Supongamos que K es una función de densidad kernel simétrica con varianza unitaria. El estimador kernel estándar de es
donde es el parámetro de suavizado. Y el estimador de la función de distribución correspondiente es
Partiendo del supuesto de que el conjunto de datos original es una realización de una muestra aleatoria de una distribución de un tipo paramétrico específico, en este caso se ajusta un modelo paramétrico por el parámetro θ, a menudo por máxima verosimilitud , y se extraen muestras de números aleatorios de este modelo ajustado. Normalmente, la muestra extraída tiene el mismo tamaño de muestra que los datos originales. Entonces, la estimación de la función original F se puede escribir como . Este proceso de muestreo se repite muchas veces como para otros métodos bootstrap. Considerando la media de la muestra centrada en este caso, la función de distribución original de la muestra aleatoria se sustituye por una muestra aleatoria bootstrap con función , y la distribución de probabilidad de se aproxima por la de , donde , que es la expectativa correspondiente a . [25] El uso de un modelo paramétrico en la etapa de muestreo de la metodología bootstrap conduce a procedimientos que son diferentes de los obtenidos mediante la aplicación de la teoría estadística básica a la inferencia para el mismo modelo.
Otro enfoque para el bootstrap en problemas de regresión es remuestrear los residuos . El método se desarrolla de la siguiente manera.
Este esquema tiene la ventaja de que conserva la información de las variables explicativas. Sin embargo, surge la pregunta de qué residuos se deben volver a muestrear. Los residuos brutos son una opción; otra son los residuos estudentizados (en la regresión lineal). Aunque existen argumentos a favor del uso de residuos estudentizados, en la práctica, a menudo hay poca diferencia y es fácil comparar los resultados de ambos esquemas.
Cuando los datos están correlacionados temporalmente, el método bootstrap directo destruye las correlaciones inherentes. Este método utiliza la regresión de proceso gaussiano (GPR) para ajustar un modelo probabilístico del que luego se pueden extraer réplicas. GPR es un método de regresión no lineal bayesiano. Un proceso gaussiano (GP) es una colección de variables aleatorias, cualquier número finito de las cuales tiene una distribución gaussiana (normal) conjunta. Un GP se define por una función media y una función de covarianza, que especifican los vectores de media y las matrices de covarianza para cada colección finita de las variables aleatorias. [26]
Modelo de regresión:
Proceso gaussiano previo:
Para cualquier colección finita de variables, x 1 , ..., x n , las salidas de la función se distribuyen conjuntamente de acuerdo con una gaussiana multivariada con matriz de media y covarianza.
Supongamos entonces que ,
donde , y es la función delta de Kronecker estándar. [26]
Proceso gaussiano posterior:
Según el médico de cabecera, podemos conseguir
donde y
Sea x 1 * ,...,x s * otra colección finita de variables, es obvio que
dónde , ,
De acuerdo con las ecuaciones anteriores, las salidas y también se distribuyen conjuntamente según una gaussiana multivariante. Por lo tanto,
donde , , , y es la matriz identidad. [26]
El bootstrap salvaje, propuesto originalmente por Wu (1986), [27] es adecuado cuando el modelo exhibe heterocedasticidad . La idea es, como el bootstrap residual, dejar los regresores en su valor de muestra, pero volver a muestrear la variable de respuesta en función de los valores residuales. Es decir, para cada réplica, se calcula una nueva en función de
Por lo tanto, los residuos se multiplican aleatoriamente por una variable aleatoria con media 0 y varianza 1. Para la mayoría de las distribuciones de (pero no para Mammen), este método supone que la distribución residual "real" es simétrica y puede ofrecer ventajas sobre el muestreo residual simple para tamaños de muestra más pequeños. Se utilizan diferentes formas para la variable aleatoria , como
El bootstrap de bloques se utiliza cuando los datos, o los errores de un modelo, están correlacionados. En este caso, un simple remuestreo de caso o residual fallará, ya que no es capaz de replicar la correlación en los datos. El bootstrap de bloques intenta replicar la correlación mediante el remuestreo dentro de bloques de datos (consulte Bloqueo (estadísticas) ). El bootstrap de bloques se ha utilizado principalmente con datos correlacionados en el tiempo (es decir, series temporales), pero también se puede utilizar con datos correlacionados en el espacio o entre grupos (los llamados datos de clúster).
En el arranque en bloques (simple), la variable de interés se divide en bloques que no se superponen.
En el bootstrap de bloques móviles, introducido por Künsch (1989), [29] los datos se dividen en n − b + 1 bloques superpuestos de longitud b : la observación 1 a b será el bloque 1, la observación 2 a b + 1 será el bloque 2, etc. Luego, de estos n − b + 1 bloques, se extraerán n / b bloques al azar con reemplazo. Luego, alineando estos n/b bloques en el orden en que fueron seleccionados, se obtendrán las observaciones bootstrap.
Este método bootstrap funciona con datos dependientes, sin embargo, las observaciones bootstrap ya no serán estacionarias por construcción. Sin embargo, se demostró que variar aleatoriamente la longitud del bloque puede evitar este problema. [30] Este método se conoce como bootstrap estacionario. Otras modificaciones relacionadas con el bootstrap de bloque móvil son el bootstrap markoviano y un método bootstrap estacionario que empareja bloques subsiguientes en función de la desviación estándar.
Vinod (2006), [31] presenta un método que utiliza el método bootstrap para series temporales de datos utilizando principios de máxima entropía que satisfacen el teorema ergódico con restricciones que preservan la media y la masa. Existe un paquete R, meboot , [32] que utiliza el método, que tiene aplicaciones en econometría y ciencias de la computación.
Los datos de conglomerados describen datos en los que se observan muchas observaciones por unidad. Esto podría ser observar muchas empresas en muchos estados o observar a estudiantes en muchas clases. En tales casos, la estructura de correlación se simplifica y, por lo general, se supone que los datos están correlacionados dentro de un grupo/conglomerado, pero que son independientes entre grupos/conglomerados. La estructura del bootstrap de bloques se obtiene fácilmente (donde el bloque solo corresponde al grupo) y, por lo general, solo se vuelven a muestrear los grupos, mientras que las observaciones dentro de los grupos se dejan sin cambios. Cameron et al. (2008) analizan esto para los errores agrupados en la regresión lineal. [33]
El bootstrap es una técnica potente, aunque puede requerir recursos de computación sustanciales, tanto en tiempo como en memoria. Se han desarrollado algunas técnicas para reducir esta carga. Por lo general, se pueden combinar con muchos de los diferentes tipos de esquemas Bootstrap y con varias opciones de estadísticas.
La mayoría de los métodos bootstrap son algoritmos vergonzosamente paralelos . Es decir, la estadística de interés para cada muestra bootstrap no depende de otras muestras bootstrap. Por lo tanto, dichos cálculos se pueden realizar en CPU o nodos de cómputo separados y los resultados de los nodos separados se agregan finalmente para el análisis final.
El método bootstrap no paramétrico toma elementos de una lista de tamaño n con recuentos extraídos de una distribución multinomial . Si denota la cantidad de veces que se incluye el elemento i en una muestra bootstrap dada, entonces cada uno se distribuye como una distribución binomial con n ensayos y media 1, pero no es independiente de para .
En cambio, el bootstrap de Poisson extrae muestras asumiendo que todos los s se distribuyen de manera independiente e idéntica como variables de Poisson con media 1. La razón es que el límite de la distribución binomial es Poisson:
Hanley y MacGibbon propusieron el bootstrap de Poisson como potencialmente útil para quienes no son estadísticos y utilizan software como SAS y SPSS , que carecían de los paquetes bootstrap de los lenguajes de programación R y S-Plus . [34] Los mismos autores informan que para un valor n suficientemente grande, los resultados son relativamente similares a las estimaciones bootstrap no paramétricas, pero continúan señalando que el bootstrap de Poisson ha tenido un uso mínimo en las aplicaciones.
Otra ventaja propuesta del bootstrap de Poisson es la independencia del método, lo que hace que sea más fácil aplicarlo a grandes conjuntos de datos que deben procesarse como flujos. [35]
Una forma de mejorar el método bootstrap de Poisson, denominado "bootstrap secuencial", es tomar las primeras muestras de modo que la proporción de valores únicos sea ≈0,632 del tamaño de la muestra original n. Esto proporciona una distribución con características empíricas principales dentro de una distancia de . [36] La investigación empírica ha demostrado que este método puede producir buenos resultados. [37] Esto está relacionado con el método bootstrap reducido. [38]
En el caso de conjuntos de datos masivos, suele resultar prohibitivo desde el punto de vista computacional mantener todos los datos de muestra en la memoria y volver a muestrear a partir de ellos. El método Bag of Little Bootstraps (BLB) [39] proporciona un método de preagregación de datos antes del bootstrap para reducir las limitaciones computacionales. Esto funciona dividiendo el conjunto de datos en compartimentos de igual tamaño y agregando los datos dentro de cada compartimento. Este conjunto de datos preagregados se convierte en los nuevos datos de muestra sobre los que se extraen muestras con reemplazo. Este método es similar al método Block Bootstrap, pero las motivaciones y definiciones de los bloques son muy diferentes. Bajo ciertas suposiciones, la distribución de la muestra debería aproximarse al escenario de bootstrap completo. Una restricción es el número de compartimentos donde y los autores recomiendan el uso de como solución general.
La distribución bootstrap de un estimador puntual de un parámetro de población se ha utilizado para producir un intervalo de confianza bootstrap para el valor verdadero del parámetro si el parámetro puede escribirse como una función de la distribución de la población .
Los parámetros de población se estiman con muchos estimadores puntuales . Las familias populares de estimadores puntuales incluyen estimadores de varianza mínima sin sesgo de media , estimadores sin sesgo de mediana , estimadores bayesianos (por ejemplo, la moda , la mediana y la media de la distribución posterior ) y estimadores de máxima verosimilitud .
Según la teoría asintótica, un estimador puntual bayesiano y un estimador de máxima verosimilitud tienen un buen rendimiento cuando el tamaño de la muestra es infinito. Para problemas prácticos con muestras finitas, pueden ser preferibles otros estimadores. La teoría asintótica sugiere técnicas que a menudo mejoran el rendimiento de los estimadores bootstrap; el bootstrap de un estimador de máxima verosimilitud a menudo puede mejorarse utilizando transformaciones relacionadas con cantidades fundamentales . [40]
La distribución bootstrap de un estimador de parámetros se utiliza a menudo para calcular intervalos de confianza para su parámetro poblacional. [2] Se han propuesto diversos métodos para construir los intervalos de confianza, aunque no hay acuerdo sobre cuál es el mejor.
El estudio de los métodos de intervalo de confianza bootstrap de DiCiccio y Efron y la consiguiente discusión enumeran varias propiedades deseadas de los intervalos de confianza, que generalmente no se cumplen todas simultáneamente.
Existen varios métodos para construir intervalos de confianza a partir de la distribución bootstrap de un parámetro real :
This article may require cleanup to meet Wikipedia's quality standards. The specific problem is: there are other bootstrap tests. (July 2023) |
Efron y Tibshirani [2] sugieren el siguiente algoritmo para comparar las medias de dos muestras independientes: Sea una muestra aleatoria de la distribución F con media muestral y varianza muestral . Sea otra muestra aleatoria independiente de la distribución G con media y varianza
This section includes a list of references, related reading, or external links, but its sources remain unclear because it lacks inline citations. (June 2012) |
En 1878, Simon Newcomb realizó observaciones sobre la velocidad de la luz . [46] El conjunto de datos contiene dos valores atípicos , que influyen en gran medida en la media de la muestra . (La media de la muestra no necesita ser un estimador consistente para ninguna media de la población , porque no es necesario que exista ninguna media para una distribución de cola pesada ). Una estadística bien definida y robusta para la tendencia central es la mediana de la muestra, que es consistente y no tiene sesgo de mediana para la mediana de la población.
La distribución bootstrap para los datos de Newcomb aparece a continuación. Podemos reducir la discreción de la distribución bootstrap añadiendo una pequeña cantidad de ruido aleatorio a cada muestra bootstrap. Una opción convencional es añadir ruido con una desviación estándar de para un tamaño de muestra n ; este ruido se suele extraer de una distribución t de Student con n-1 grados de libertad. [47] Esto da como resultado un estimador aproximadamente insesgado para la varianza de la media de la muestra. [48] Esto significa que las muestras tomadas de la distribución bootstrap tendrán una varianza que es, en promedio, igual a la varianza de la población total.
A continuación se muestran los histogramas de la distribución bootstrap y de la distribución bootstrap suavizada. La distribución bootstrap de la mediana de la muestra tiene solo una pequeña cantidad de valores. La distribución bootstrap suavizada tiene un soporte más rico . Sin embargo, tenga en cuenta que si el procedimiento bootstrap suavizado o estándar es favorable es un caso por caso y se muestra que depende tanto de la función de distribución subyacente como de la cantidad que se estima. [49]
En este ejemplo, el intervalo de confianza del 95 % (percentil) bootstrap para la mediana de la población es (26, 28,5), que está cerca del intervalo de (25,98, 28,46) para el bootstrap suavizado.
El bootstrap se distingue de:
Para obtener más detalles, consulte remuestreo .
La agregación bootstrap (bagging) es un metaalgoritmo basado en promediar las predicciones del modelo obtenidas a partir de modelos entrenados en múltiples muestras bootstrap.
En situaciones en las que se puede idear una estadística obvia para medir una característica requerida utilizando solo un pequeño número, r , de elementos de datos, se puede formular una estadística correspondiente basada en la muestra completa. Dado un estadístico de r muestras, se puede crear un estadístico de n muestras mediante algo similar al bootstrap (tomando el promedio del estadístico sobre todas las submuestras de tamaño r ). Se sabe que este procedimiento tiene ciertas buenas propiedades y el resultado es un estadístico U . La media y la varianza de la muestra tienen esta forma, para r = 1 y r = 2.
El método bootstrap tiene, en determinadas condiciones, propiedades asintóticas deseables . Las propiedades asintóticas descritas con más frecuencia son la convergencia débil/consistencia de las trayectorias de muestra del proceso empírico bootstrap y la validez de los intervalos de confianza derivados del método bootstrap. Esta sección describe la convergencia del método bootstrap empírico.
Este párrafo resume descripciones más completas de la convergencia estocástica en van der Vaart y Wellner [50] y Kosorok. [51] El bootstrap define un proceso estocástico , una colección de variables aleatorias indexadas por algún conjunto , donde es típicamente la línea real ( ) o una familia de funciones. Los procesos de interés son aquellos con caminos de muestra acotados, es decir, caminos de muestra en L-infinito ( ), el conjunto de todas las funciones uniformemente acotadas de a . Cuando está equipado con la distancia uniforme, es un espacio métrico , y cuando , dos subespacios de son de particular interés, , el espacio de todas las funciones continuas de al intervalo unitario [0,1], y , el espacio de todas las funciones cadlag de a [0,1]. Esto se debe a que contiene las funciones de distribución para todas las variables aleatorias continuas, y contiene las funciones de distribución para todas las variables aleatorias. Las afirmaciones sobre la consistencia del bootstrap son afirmaciones sobre la convergencia de las trayectorias de muestra del proceso bootstrap como elementos aleatorios del espacio métrico o algún subespacio del mismo, especialmente o .
Horowitz en una revisión reciente [1] define la consistencia como: el estimador bootstrap es consistente [para una estadística ] si, para cada , converge en probabilidad a 0 como , donde es la distribución de la estadística de interés en la muestra original, es la distribución verdadera pero desconocida de la estadística, es la función de distribución asintótica de , y es la variable de indexación en la función de distribución, es decir, . Esto a veces se llama más específicamente consistencia relativa a la distancia de Kolmogorov-Smirnov . [52]
Horowitz continúa recomendando utilizar un teorema de Mammen [53] que proporciona condiciones necesarias y suficientes para la consistencia de las estadísticas de una determinada forma común de manera más fácil de comprobar. En particular, sea la muestra aleatoria. Si para una secuencia de números y , entonces la estimación bootstrap de la función de distribución acumulativa estima la función de distribución acumulativa empírica si y solo si converge en la distribución a la distribución normal estándar .
La convergencia en probabilidad (externa) como se describió anteriormente también se llama consistencia débil . También se puede demostrar con suposiciones ligeramente más fuertes, que el bootstrap es fuertemente consistente , donde la convergencia en probabilidad (externa) se reemplaza por convergencia (externa) casi con seguridad. Cuando solo se describe un tipo de consistencia, normalmente es consistencia débil. Esto es adecuado para la mayoría de las aplicaciones estadísticas ya que implica que las bandas de confianza derivadas del bootstrap son asintóticamente válidas. [51]
En casos más simples, es posible utilizar directamente el teorema del límite central para demostrar la consistencia del procedimiento bootstrap para estimar la distribución de la media de la muestra.
En concreto, consideremos variables aleatorias independientes distribuidas de forma idéntica con y para cada . Sea . Además, para cada , condicional a , sean variables aleatorias independientes con distribución igual a la distribución empírica de . Esta es la secuencia de muestras bootstrap.
Luego se puede demostrar que donde representa la probabilidad condicional a , , , y .
Para ver esto, note que satisface la condición de Lindeberg , por lo que se cumple el TCL. [54]
El teorema de Glivenko-Cantelli proporciona una base teórica para el método bootstrap.