You are on page 1of 5

Bootstrapping Means https://translate.googleusercontent.com/translate_c?depth=1&hl=es&pre...

Bootstrapping Means

En un nivel, los procedimientos de arranque para los medios se encuentran entre los más simples. Y una lectura superficial
de algo como Simon & Bruce (2000) Resample Stats lo hace parecer completamente sencillo. En realidad, no es tan
sencillo, y cuando lees la literatura te das cuenta de que puede ser algo más que un poco confuso. De hecho, puede ser un
verdadero desastre.

Existen varios métodos diferentes para iniciar un solo parámetro. Trabajaré principalmente con la media porque es la más
simple. De hecho, en general, nuestros procedimientos paramétricos hacen bastante bien en la producción de intervalos de
confianza en la media, y rara vez necesitamos mirar cosas como bootstrapping. Sin embargo, el hecho de que se puede
contar con que sepas un poco acerca de la media hace que sea mucho más sensato comenzar allí. Gran parte de lo que está
aquí se traslada de forma bastante obvia a otras medidas.

Método percentil

El método percentil es el más directo. Supongamos que tenemos una muestra de 20 puntajes con una media muestral de
15. Para el método percentil simplemente dibujamos una gran cantidad de muestras bootstrap (por ejemplo, 1000) con
reemplazo de una población compuesta por los datos de muestra. Determinamos la media de cada muestra, llámala y
crea la distribución de muestreo de la media. Entonces tomamos el y el 1- percentiles (por ejemplo, el .025 *
1000 y el .975 * 1000 = el 25 ° y el 975 ° estadístico bootstrapped), y estos son los límites de confianza.

Los métodos percentiles parecen sensatos, pero en realidad es un poco extraño. Los límites de confianza son en realidad
los límites de la distribución de muestreo de la media, en lugar de algún tipo de límites en el parámetro. En otras palabras,
si estos límites deben ser 11 y 19, estamos haciendo una declaración de confianza sobre la probabilidad de que cualquier
medio de arranque futuro se encuentre entre 11 y 19, mientras que queremos hacer una declaración de confianza sobre el
valor de mu ( m ).

Si estamos tratando con la media muestral, eso no es un problema. Sabemos que la distribución de la media es simétrica
para tamaños de muestra razonables, por lo que las cosas funcionan bien.

El método de Lunneborg

Doy crédito por este método a Clifford Lunneborg, aunque no es original con él. El método está implícito en las escrituras
de varias personas, pero se destaca más claramente en el libro de Lunneborg: Análisis de datos por remuestreo .

Supongamos, por razones de exposición, que la distribución muestral de la media obtenida por bootstrapping resultó muy
sesgada. (Por ejemplo, esto solo ocurriría en el extremo, pero para otras estadísticas sería más común.) Supongamos que la
distribución bootstrap se parece a la que he dibujado (mal) a continuación, donde " a " representa la distancia desde la
media de la distribución (igual al promedio de la muestra original) hasta el percentil 2.5, y " b " representa la distancia
hasta el percentil 97.5. Los he dibujado deliberadamente para que a y b no sean iguales. Representaré el valor obtenido de
la estadística en cuestión por S, que es solo mi símbolo genérico para alguna estadística.

1 de 5 12/09/2018 9:34
Bootstrapping Means https://translate.googleusercontent.com/translate_c?depth=1&hl=es&pre...

El verdadero valor para m podría estar muy abajo a la izquierda, y el valor obtenido seguiría siendo razonable. En otras
palabras, m podría ser tan bajo como ( S - b ), y la estadística obtenida aún sería un resultado (apenas) predecible. Pero si
m estuviera cerca de la cola derecha, no esperaríamos obtener un valor tan bajo como el que obtuvimos. En otras palabras,
m no podría ser más alto que ( S + a ) para que lo obtenido sea probable. (Probablemente, es probable que ocurra el 95%
del tiempo o más).

Pero este último párrafo significa que los dos límites de confianza son ( S - b ) y ( S + a ). En notación diferente, usando la
media como estadística, los límites de confianza son ( - (.975% azulejo - )) y ( +( -0.025% del mosaico)).
Esto se ve justo al revés de lo que dijimos antes, porque el método percentil da ( -a)y( + b ), mientras que el
método de Lunneborg da ( -b)y( + a ). Las cosas miran hacia atrás, y lógicamente Lunneborg tiene razón. La
razón por la que esto no aparece cuando normalmente hablamos de límites de confianza, es que con una distribución
simétrica de bootstrap (o muestreo), no hace ninguna diferencia. En esa situación a = b .

Límites de confianza tradicionales

Dejemos el bootstrapping por un minuto, y solo nos concentremos en los límites de confianza estándar en estadísticas
paramétricas. Nuevamente nos enfocaremos en la media. Sabemos que los límites de confianza habituales se pueden
encontrar como . Podemos resolver estos límites simplemente tomando la media muestral, ,
encontrando el valor crítico de t de las tablas de los Estudiantes (para tamaños de muestra razonables será un poco más de
2.0), y multiplicando por el error estándar de la media, que es solo la desviación estándar de la muestra dividida por la raíz
cuadrada de n . Observe que estos límites serán simétricos porque + t y - t serán iguales excepto por el signo. Esta
discusión formará la base para la siguiente sección sobre intervalos t bootstrapped.

Intervalos t de Bootstrapped

El último tipo de intervalos de confianza en los que pasaré mucho tiempo es lo que Efron ha llamado intervalos bootstrap.
Estos son en realidad sorprendentemente como los intervalos tradicionales, pero con un giro. Para calcular los intervalos
tradicionales, tuvimos que usar las tablas de la distribución t de Student. Pero Gosset originalmente derivó esa distribución
en el supuesto de que estábamos tomando muestras de una población normal. Y todo el propósito detrás de bootstrapping
es alejarse de hacer ese tipo de suposición. Pero si no vamos a asumir la normalidad, y por lo tanto nos volvemos la nariz
en la distribución t de Student (simétrica), tenemos un problema.

Bueno, no, no es así. Supongamos que tomamos nuestra muestra original, la tratamos como una pseudopoblación,
extraemos muestras de arranque B y calculamos y s de cada uno. A partir de estas estadísticas, podemos resolver t * ,
donde el asterisco se usa para indicar que cada uno de estos es un t calculado en una muestra bootstrapped. Ahora todo lo
que necesitamos son los puntos de corte del 2.5% y del 97.5% de la distribución t que tendremos sin asumir la normalidad.
Y podemos obtener esos puntos de corte simplemente dibujando muchas muestras arrancadas, y calculando t * para cada
muestra (es decir, para cada muestra que calculamos , dónde es el promedio de la i-ésima muestra

2 de 5 12/09/2018 9:34
Bootstrapping Means https://translate.googleusercontent.com/translate_c?depth=1&hl=es&pre...

arrancada, es la media de nuestra muestra original, y s * es su desviación estándar).

Después de dibujar muestras B bootstrapped, tomamos la distribución de muestreo resultante de t * y encontramos sus
puntos de corte de 2.5% y 97.5%, y las sustituimos en lugar de valores tabulados en la fórmula tradicional. Esto nos da
.

Tenga en cuenta que estos límites son similares a los de Lunneborg, en el sentido de que he cambiado los percentiles 2.5 y
97.5 de lo que normalmente esperaríamos. Y lo hice por la misma razón que Lunneborg.

Este es el procedimiento implementado en los programas asociados con este conjunto de páginas.

Mejores intervalos

No quiero que piense que he resuelto todos los problemas y le he dado las mejores estimaciones. Efron ha pasado 20 años
en este problema y, junto con otras personas, ha llegado a mejores límites. Lamentablemente, estos límites son un poco
difíciles de calcular. Pero al menos debería decirte lo que ha hecho.

La primera solución es una corrección por sesgo, y depende del hecho de que la estimación de la muestra puede ser una
estimación sesgada del parámetro de la población. Efron estima este sesgo y lo elimina del cálculo del intervalo.

El segundo problema que concierne a Efron es que el error estándar de la distribución de muestreo puede cambiar con
diferentes valores de q , el parámetro que estamos tratando de estimar. De lo que has visto arriba, si el error estándar
depende de q , el ancho del intervalo variará con q . Efron intentó compensar esta ampliación y estrechamiento. La
solución que se le ocurrió se llama enfoque de intervalo BCA, representando "corrección de polarización y aceleración".
El procedimiento es demasiado complejo para entrar aquí, pero se presenta claramente en Efron y Tibshirani (1983).

No es solo el medio

He presentado el material aquí en el contexto de encontrar límites en la media de la población. Lo hice porque es el más
fácil de hablar. Pero casi todo lo que dije aquí se puede aplicar a otras estadísticas, aunque calcular algunas de ellas puede
ser difícil. Por ejemplo, sabemos que el error estándar de la media es la desviación estándar de la muestra dividida por la
raíz cuadrada de n . Es fácil hacer ese cálculo y sustituir el error estándar en nuestra fórmula. Pero, ¿cuál es el error
estándar de la mediana si la distribución no es normal? Eso es difícil. Puede que tengamos que estimarlo dibujando
muestras bootstrapped dentro de muestras bootstrapped. Eso no es divertido, y es por eso que no verás un buen
procedimiento mediano bootstrapped en la versión 1.0 de mi programa. Lo haré más tarde, en cuyo caso querrá descargar
la última versión del sitio web.

Un ejemplo
Caitlin Macauley (1999, comunicación personal) recolectó puntajes de estado mental en 123 personas entre las edades de
60 y 95. Una de sus variables dependientes fue un puntaje de memoria en el examen de estado cognitivo neuroconductual.
Como era de esperar, estos datos fueron negativamente sesgados, porque algunos, pero ciertamente no todos, de sus
participantes habían perdido algún funcionamiento cognitivo. De hecho, la distribución fue extremadamente sesgada,
como se ve a continuación.

3 de 5 12/09/2018 9:34
Bootstrapping Means https://translate.googleusercontent.com/translate_c?depth=1&hl=es&pre...

Macauley estaba particularmente interesado en formar un intervalo de confianza en la mediana, pero usaremos este
ejemplo para formar un límite de confianza del 95% en la media. Este es un ejercicio interesante porque ilustra cuán
robusto es el teorema del límite central.

La figura a continuación muestra los resultados del uso de Resampling.exe para generar límites de confianza del 95% en
la media. Estos límites son 8.65 y 9.60, y son notablemente simétricos con respecto a la media. El límite inferior es 0.489
unidades por debajo de la media, mientras que el superior es 0.465 unidades por encima de la media. También podemos
ver que la distribución de los medios es aproximadamente normal, y el error estándar de esta distribución bootstrapped (su
desviación estándar) es 0.241.

4 de 5 12/09/2018 9:34
Bootstrapping Means https://translate.googleusercontent.com/translate_c?depth=1&hl=es&pre...

Si hubiéramos ignorado el hecho de que la distribución original está muy sesgada negativamente, y solo calculamos los
límites de confianza suponiendo que n es suficientemente grande para que la distribución de muestreo sea normal,
tendremos un error estándar de 0.247 y límites de confianza del 95% de 8.65 y 9.63. Observe cuán cerca está la
aproximación normal, aun cuando sabemos que la distribución está marcadamente sesgada. Por supuesto, estamos
hablando de una muestra de 123 observaciones, y es el gran tamaño de muestra lo que nos salva.

La conclusión general de las personas que trabajan en este campo es que realmente no hay una gran ventaja al usar el
arranque para establecer los límites de confianza en una media. La razón para cubrirlo aquí es que es la forma más sencilla
de comenzar, y, de hecho, nuestros resultados concuerdan muy bien con la teoría. Veremos que esto no siempre será cierto
cuando se trata de estimar parámetros diferentes.

Revisado por última vez: 25/06/02

5 de 5 12/09/2018 9:34

You might also like