11.4 Pesos replicados

Las complicaciones en el cálculo de los errores de muestreo pueden ser mayores dependiendo de la escogencia del estimador y del diseño de muestreo asumido para la recolección de la información primaria. En algunas ocasiones, el proceso de linealización puede resultar complicado, por lo que es posible optar por una estrategia computacional aproximada que permite pasar por alto el proceso teórico de definición de las cantidades que estiman la varianza del estimador. Este conjunto de métodos supone la idea de la selección sistemática de submuestras que son utilizadas para estimar el parámetro de interés, utilizando los mismos principios de estimación que con la muestra completa. Por lo anterior, se obtienen estimaciones puntuales para cada réplica, las cuales son utilizadas para estimar la varianza del estimador de interés.

En ausencia de fórmulas adecuadas, en los últimos años han aparecido una variedad de técnicas empíricas que proporcionan varianzas aproximadas que parecen satisfactorias para fines prácticos (Kish 1965). Estos métodos utilizan una muestra de datos para construir submuestras y generar una distribución para las estimaciones de los parámetros de interés utilizando cada submuestra. Los resultados de la submuestra se analizan para obtener una estimación del parámetro, así como intervalos de confianza para esa estimación. El enfoque general de esta técnicas computacional se basa en:

  1. Dividir la toda la muestra en pequeños subconjutnos (réplicas).
  2. Repetir los mismos procesos de ajuste de ponderadores en cada réplica.
  3. Hacer la estimación en cada subgrupo.
  4. La varianza del estimador se calcula de manera simple como la varianza muestral de todas las estimaciones en cada réplica.

Usando esta metodología, no se requiere que las bases de datos públicas contengan la información asociada a los estratos o UPM y esto protege la anonimización de los respondientes. Además, no se requiere conocer el diseño de muestreo utilizado en la encuesta, puesto que al proveer los pesos replicados en las bases de datos, los investigadores pueden estimar el error de muestreo de forma automatizada y sin necesidad de intrincadas fórmulas matemáticas. Estos métodos ha demostrado ser eficientes y precisos para la mayoría de parámetros de interés, algunas encuestas que utilizan estas metodologías son la American Community Survey, la American Housing Survey y la Current Population Survey. En América Latina la PNADC de Brasil, la ENE de Chile y la ENEMDU de Ecuador han hecho uso de estas técnicas para la estimación de la varianza de algunos estimadores complejos.

En particular, hay tres metodologías que abordan este problema: los pesos replicados repetidas balanceadas (McCarthy 1969; Judkins 1990), el Jackknife (Krewski y Rao 1981) y el Bootstrap (Rao y Wu 1988). La idea general detrás de estos métodos es que, partiendo de la muestra completa, en cada réplica se seleccione un conjunto de UPMs manteniendo todas las unidades que hayan sido seleccionadas dentro de esas UPMs. Luego, es necesario reponderar los pesos de muestreo para que se conserve la representatividad; de esta manera, para cada réplica se obtendrá un nuevo conjunto de pesos de muestreo. Con estos pesos, se calcula la estimación de interés, obteniendo tantas estimaciones como réplicas definidas. Wolter (2007) provee todos los detalles teóricos referentes al problema de la estimación de la varianza utilizando los pesos replicados.

En lo concerniente con las técnicas de remuestreo y la utilización de los pesos replicados para el cálculo de los errores de muestreo se recalca que la técnica de Jackknife es útil para estimar parámetros lineales, pero no tiene un buen comportamiento cuando se trata de estimar percentiles o funciones de distribución. La técnica de réplicas repetidas balanceadas es útil para estimar parámetros lineales y no lineales, pero puede ser deficiente cuando se tienen dominios pequeños que pueden inducir estimaciones nulas en la configuración de los pesos. Sin embargo, como se explicará más adelante, el ajuste de Fay a la técnica anterior resulta palear todos los anteriores inconvenientes. En este caso es importante utilizar una matriz de Hadammard que induzca no más de 120 conjuntos de pesos replicados para que la publicación de la base de datos no se sobrecargue. Por último, el bootstrap debe ser utilizado con detenimiento porque debe replicar el diseño de muestreo exacto y esto se logra construyendo una población a partir de los pesos de muestreo.

11.4.1 La técnica de Jackknife

Este método provee estimaciones eficientes para estimadores lineales y no lineales (a excepción de los percentiles). En su forma más básica, los pesos replicados se crean al retirar una UPM del análisis. Por ende, se tendrán tantos pesos replicados como UPM existan en la muestra. Además, cuando una UPM se retira en la réplica, todas las unidades dentro de esa UPM también se retiran. El desarrollo del procedimiento de Jackknife se remonta a un método utilizado por Quenouille (1956) para reducir el sesgo de las estimaciones. El refinamiento ulterior del método (Mosteller 1968) llevó a su aplicación en una serie de situaciones de las ciencias sociales en las que las fórmulas no están fácilmente disponibles para el cálculo de errores de muestreo.

Este procedimiento ofrece mayor flexibilidad, pues el Jackknife puede implementarse en una amplia variedad de diseños muestrales; además de facilidad de uso, puesto que no requiere de software especializado. El concepto principal de esta técnica parte de una muestra de tamaño \(n\), la cual se divide en \(A\) grupos de igual tamaño \(m=n/A\), a partir de esta división, la varianza de un estimador \(\hat{\theta}\) se estima a partir de la varianza observada en los \(A\) grupos.

Para cada grupo \((a=1,2,...,A)\), se calcula \(\hat{\theta}_{(a)}\), una estimación para el parámetro \(\theta\), calculada de la misma forma que la estimación \(\hat{\theta}\) obtenida con la muestra completa, pero solo con la información restante (luego de la eliminación del grupo \(a\)). Para \(a=1,2,...,A\) se define

\[\hat{\theta}_{a}=A\hat{\theta}-(A-1)\hat{\theta}_{(a)}\]

como un pseudovalor de \(\theta\). El estimador obtenido mediante Jackknife se presenta como una alternativa a \(\hat{\theta}\) y se define como:

\[\hat{\theta}_{JK}=\dfrac{1}{A}\sum_{a=1}^{A}\hat{\theta}_{a}\]

mientras que el estimador de la varianza obtenido mediante Jackknife se obtiene como:

\[\widehat{Var}_{JK1}=\dfrac{1}{A(A-1)}\sum_{a=1}^{A}\left(\hat{\theta}_{a}-\hat{\theta}_{JK}\right)^{2}\]

También es posible utilizar como estimador alternativo:

\[\widehat{Var}_{JK2}=\dfrac{1}{A(A-1)}\sum_{a=1}^{A}\left(\hat{\theta}_{a}-\hat{\theta}\right)^{2}\]

Para diseños estratificados y multietápicos en los cuales las unidades primarias de muestreo han sido seleccionadas en el estrato \(h\), para \(h=1, \ldots, H\), el estimador de varianza de Jackknife para la estimación de un parámetro poblacional está dado por

\[ \widehat{Var}_{JK}(\hat{\theta}) = \sum_{h=1}^H \frac{n_{Ih} - 1}{n_{Ih}} \sum_{i=1}^{n_{Ih}} (\hat{\theta}_{h(i)}-\hat{\theta})^2 \]

donde \(\hat{\theta}_{h(i)}\) es la estimación de \(\theta\) usando los datos de la muestra excluyendo las observaciones en la \(i\)-ésima unidad primaria de muestreo (Korn y Graubard 1999, pg. 29 – 30). Shao y Tu (2012, Teorema 6.2) garantiza la convergencia en probabilidad de este estimador hacia la varianza teórica, de donde se puede concluir que es un estimador aproximadamente insesgado para la varianza teórica. Los pesos de la unidad \(k\) que pertenece a la UPM \(U_i\), en el estrato \(U_h\) están dados por la siguiente expresión:

\[ d_{hk}^i = \begin{cases} 0, \ \text{si $U_i \in U_h$ y $k \in U_i$ }\\ d_k, \ \text{si $k \notin U_h$}\\ \frac{n_{Ih}}{n_{Ih}-1}d_k, \ \text{si $U_i \in U_h$ y $k \notin U_i$} \end{cases} \]

En donde \(n_{Ih}\) es el número de UPM seleccionadas en el estrato \(U_h\). Por último, para reducir el número de pesos replicados, se pueden conformar unidades de varianza, uniendo varias UPM dentro de un mismo estrato, y también estratos de varianza, colapsando estratos dentro de la muestra. En el primer caso, se podrían emparejar las UPM en cada estrato de acuerdo a la medida de tamaño. En este caso, el estimador de varianza está dado por la siguiente expresión

\[ \widehat{Var}_{JK}(\hat{\theta}) = \sum_h \frac{n_{Ih}-n_{Ihg}}{n_{Ih}} \sum_{i \in s_{hg}} (\hat{\theta}_{h(g)} - \hat{\theta})^2 \]

En donde \(\hat{\theta}_{hg}\) es el estimador del parámetro retirando el \(g\)-ésimo subgrupo del estrato \(U_h\) y \(n_{Ihg}\) es el tamaño del subgrupo en la muestra denotado como \(s_{hg}\). A continuación se ejemplifica la estructura final de una base de datos de pesos replicados con esta técnica en un conjunto reducido de tan solo ocho unidades muestrales divididas en cuatro UPM y dos estratos. Se enfatiza que habrán tantos conjuntos (columnas) de pesos replicados Jackknife como UPM existentes en la muestra de la primera etapa.

Ejemplo reducido de la creación de pesos replicados con la técnica de Jackknife.
\(k\) Estrato UPM \(d_k^{(1)}\) \(d_k^{(2)}\) \(d_k^{(3)}\) \(d_k^{(4)}\)
1 Estrato1 UPM1 0 1,03 1,03 1,03
2 Estrato1 UPM1 0 1,03 1,03 1,03
3 Estrato1 UPM2 1,03 0 1,03 1,03
4 Estrato1 UPM2 1,03 0 1,03 1,03
5 Estrato2 UPM3 1,03 1,03 0 1,03
6 Estrato2 UPM3 1,03 1,03 0 1,03
7 Estrato2 UPM4 1,03 1,03 1,03 0
8 Estrato2 UPM4 1,03 1,03 1,03 0

11.4.2 El método de las réplicas repetidas balanceadas

Esta técnica conocida como BRR se desarrolló para diseños en donde dos UPM son seleccionadas por estrato. Este método funciona consistentemente para la estimación de parámetros lineales y no lineales (incluidos los percentiles) y, además, asegura máxima dispersión de las UPM a través de las regiones geográficas (estratos) (Valliant y Dever 2017). Nótese que si el submuestreo en cada estrato es \(n_{Ih} = 2\), entonces al utilizar la técnica de Jackknife deberíamos definir \(2^H\) posibles réplicas al seleccionar aleatoriamente una UPM en cada estrato, lo cual puede ser intratable computacionalmente.

Es posible lograr la misma eficiencia reduciendo el número de pesos replicados utilizando un enfoque ortogonal con matrices de Hadamard, que son matrices cuadradas cuyas columnas deben ser ortogonales. Por ejemplo, considere la siguiente matriz:

\[ \begin{pmatrix} +1 & +1 & +1 & +1 \\ +1 & -1 & +1 & -1 \\ +1 & +1 & -1 & -1 \\ +1 & -1 & -1 & +1 \end{pmatrix} \]

Asumiendo que el valor +1 implica que la primera UPM se mantiene como parte de la réplica y la segunda UPM es retirada de la réplica; el valor -1 implica que la segunda UPM se mantiene como parte de la réplica y la primera UPM es retirada de la réplica. Por tanto, en cada réplica se retira una UPM por estrato. Esto implica que el producto punto entre cualquier combinación de dos columnas deber ser igual a cero. Por ejemplo, tomando las columnas 2 y 4, se tiene que

\[ (+1, -1, +1, -1)' \cdot (+1, -1, -1, +1) = 1 + 1 - 1 -1 = 0 \]

De esta forma, el número de réplicas ortogonales será igual al menor múltiplo de 4 mayor o igual al número de estratos. Las UPM que se mantienen en cada réplica se conocen como half-samples. Por consiguiente, el peso de los individuos en la UPM que se mantiene se multiplica por un factor de 2. Entonces, se tiene que

\[ d_{k} = \begin{cases} 0, \ \text{si $k$ pertence a la UPM que fue retirada}\\ 2d_k, \ \text{en otro caso.} \end{cases} \]

Bajo esta metodología BRR, el estimador de la varianza toma la siguiente forma:

\[ \widehat{Var}_{BRR}(\hat{\theta}) = \frac{1}{A}\sum_{a=1}^A(\hat{\theta}_a - \hat\theta )^2 \]

En donde \(\hat{\theta}_a\) es el estimador del parámetro de interés en la réplica \(a\). A continuación se ejemplifica la estructura final de una base de datos de pesos replicados con esta técnica en el mismo conjunto reducido, considerando que hay dos estratos.

Ejemplo reducido de la creación de pesos replicados con la técnica de las réplicas repetidas balanceadas.
\(k\) Estrato UPM \(d_k^{(1)}\) \(d_k^{(2)}\)
1 Estrato1 UPM1 2 0
2 Estrato1 UPM1 2 0
3 Estrato1 UPM2 0 2
4 Estrato1 UPM2 0 2
5 Estrato2 UPM3 2 0
6 Estrato2 UPM3 2 0
7 Estrato2 UPM4 0 2
8 Estrato2 UPM4 0 2

Una desventaja de este método BRR es que las unidades en dominios con muestra pequeña pueden estar ausentes en algunas combinaciones de pesos replicados por el diseño ortogonal. Lo anterior conlleva una pérdida de precisión en el cálculo del error estándar. Una solución a este problema es modificar los pesos en los pesos replicados. Para la aplicación de la Réplicas Repetidas Balanceadas es recomendable usar el método de Fay, en donde se siguen los lineamientos basados en la matriz de Hadamard, aunque las UPM no son retiradas completamente, sino que su peso se modifica de la siguiente manera:

\[ d_k^a= \begin{cases} \rho*d_k,\ \ \ \ \ \ \ \ \ \ \text{si $k$ pertence a la UPM que fue retirada} \\ (2-\rho)d_k, \ \ \ \ \text{en otro caso.} \end{cases} \]

En donde \(0<\rho<1\). Algunos estudios por simulación han mostrado una buena eficiencia para valores de \(\rho\) iguales a 0.3, 0.5 o 0.7. Bajo la metodología BRR con el ajuste de Fay, el estimador de la varianza toma la siguiente forma: \[ \widehat{Var}_{Fay}(\hat{\theta}) = \frac{1}{A(1-\rho)^2}\sum_{a=1}^A(\hat{\theta}_a - \hat\theta )^2 \]

En donde \(\hat{\theta}_a\) es el estimador del parámetro de interés en la réplica \(a\). A continuación se ejemplifica la estructura final de una base de datos de pesos replicados con el ajuste de Fay en el mismo conjunto reducido.

Ejemplo reducido de la creación de pesos replicados con el ajuste de Fay.
\(k\) Estrato UPM \(d_k^{(1)}\) \(d_k^{(2)}\)
1 Estrato1 UPM1 1.5 0.5
2 Estrato1 UPM1 1.5 0.5
3 Estrato1 UPM2 0.5 1.5
4 Estrato1 UPM2 0.5 1.5
5 Estrato2 UPM3 1.5 0.5
6 Estrato2 UPM3 1.5 0.5
7 Estrato2 UPM4 0.5 1.5
8 Estrato2 UPM4 0.5 1.5

En general, para la aplicación de estos métodos, los pesos de muestreo se ajustan para generar los pesos replicados y, posteriormente, se repiten los ajustes por ausencia de respuesta y calibración para estos nuevos pesos. Con esta metodología se estiman los errores de muestreo y la varianza de muestreo, incluyendo el impacto de la ausencia de respuesta, el cual se espera que sea pequeño, pero relevante en el momento de calcular estimadores más precisos. Retomando las observaciones hechas anteriormente, en el caso en el que la encuesta cuente con estratos en donde se encuentre una sola UPM, el método de los pesos replicados repetidas balanceadas no es aplicable puesto que al eliminar una unidad, algunos estratos quedarán vacíos.

11.4.3 Método de Bootstrap

En este apartado se presenta el método de Bootstrap (Efron y Tibshirani 1993), el cual es muy utilizado por su fácil implementación; además de ser flexible en términos del número de pesos replicados que se crean. Teniendo los pesos muestrales se procede a crear los pesos replicados con el método de remuestreo con el fin de poder calcular estimaciones de indicadores junto con las estimaciones de las varianzas. En el contexto de las encuestas de hogares, se trata de realizar un remuestreo a las unidades primarias de muestreo seleccionadas desde el marco de áreas.

El Bootstrap es el método basado en réplicas más versatil para el cálculo de errores estándar. Valliant y Dever (2017) mencionan que es muy eficiente en la estimación de parámetros lineales y no lineales, a diferencia del Jackknife que no es eficiente en la estimación de percentiles. Funciona también para tamaños de muestra pequeños, a diferencia del método BRR que requiere una muestra de mínimo dos UPM por estrato. Este método requiere una cantidad de pesos replicados grande, usualmente mayor a 200.

Siendo \(s_{BS}\) la submuestra Bootstrap, el peso replicado del individuo \(k\) perteneciente a la UPM \(i\) del estrato \(h\) sigue la siguiente expresión: \[ d_k^b = \begin{cases} 0, \text{\ si la UPM $i$ no pertence a $s_{BS}$} \\ d_k\left[1 - \sqrt{\frac{n_{Ih}^*}{n_{Ih}-1}}+\sqrt{\frac{n_{Ih}^*}{n_{Ih}-1}} \frac{n_{Ih}}{n_{Ih}^*}n_{Ihi}^* \right], \text{\ en otro caso} \end{cases} \]

En donde \(n_{Ih}\) es el úmero de UPM en la muestra original del estrato \(h\), \(n_{Ih}^*\) es el número de UPM en la muestra Bootstrap y \(n_{Ihi}^*\) es el número de veces que la UPM \(i\) fue seleccionada en la muestra Bootstrap. En este caso se selecciona una muestra Bootstrap con \(m^*_h = m_h - 1\), y los pesos toman la siguiente forma

\[ d_k^a = \begin{cases} 0, \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \text{si la UPM $i$ no pertence a $s_{BS}$} \\ d_k\left[1 - \sqrt{\frac{n_{Ih}^*}{n_{Ih}-1}}+\sqrt{\frac{n_{Ih}^*}{n_{Ih}-1}} \frac{n_{Ih}}{n_{Ih}^*}n_{Ihi}^* \right], \ \ \ \ \ \text{en otro caso} \end{cases} \]

Bajo la metodología Bootstrap (BS), el estimador de la varianza toma la siguiente forma: \[ \widehat{Var}_{BS}(\hat{\theta}) = \frac{1}{B}\sum_{b=1}^B(\hat{\theta}_b - \hat\theta )^2 \] En donde \(\hat{\theta}_b\) es el estimador del parámetro de interés en la réplica \(b\) inducida por la muestra Bootstrap. En resumen, para la \(b\)-ésima réplica con los pesos resultantesse podrán calcular las estimaciones de totales, proporciones, promedios y razones y sus respectivas varianzas o desviaciones. En general, es necesario reflejar el ajuste de los pesos en los pesos replicados, por esto es necesario trabajar con la muestra originalmente seleccionada, la cual contendrá unidades no elegibles y unidades que no respondieron. Los mismos ajustes que se hicieron a la muestra original se deben realizar en cada réplica. Si hubo calibración de pesos también debe ser incluida como un proceso en cada réplica, para asegurar que el error estándar inducido por estos métodos incluirá el incremento (o decremento) de la varianza inducida por estos ajustes a los pesos. A continuación se ejemplifica la estructura final de una base de datos de pesos replicados con la metodología de bootstrap en el mismo conjunto reducido.

Ejemplo reducido de la creación de pesos replicados con la técnica de Bootstrap.
\(k\) Estrato UPM \(d_k^{(1)}\) \(d_k^{(2)}\) \(d_k^{(3)}\) \(d_k^{(4)}\)
1 Estrato1 UPM1 2 0 1 1
2 Estrato1 UPM1 2 0 1 1
3 Estrato1 UPM2 0 2 1 1
4 Estrato1 UPM2 0 2 1 1
5 Estrato2 UPM3 1 1 2 0
6 Estrato2 UPM3 1 1 2 0
7 Estrato2 UPM4 1 1 0 2
8 Estrato2 UPM4 1 1 0 2

Rao y Wu (1984) y Rao y Wu (1988) aconsejan seleccionar una muestra con reemplazo de \(n_I - 1\) de las \(n_I\) UPM de la muestra, teniendo en cuenta la probabilidad de selección del diseño complejo en la primera etapa. Dado que la selección es con reemplazo, una UPM puede ser seleccionada más de una vez en esta nueva muestra. Por otro lado, también es posible realizar una selección sin reemplazo; en este caso, Preston (2009) recomiendan seleccionar una muestra con reemplazo de \(n_I/2\) de las \(n_I\) UPM de la muestra, teniendo en cuenta la probabilidad de selección del diseño complejo en la primera etapa.

Referencias

Efron, Bradley, y Robert J. Tibshirani. 1993. An Introduction to the Bootstrap. Monographs on Statistics y Applied Probability 57. Boca Raton, Florida, USA: Chapman & Hall/CRC.
Judkins, David R. 1990. «Fay’s Method for Variance Estimation». Journal of Official Statistics; Stockholm 6 (3): 223.
Kish, Leslie. 1965. Survey Sampling. John Wiley; Sons.
Korn, Edward Lee, y Barry I. Graubard. 1999. Analysis of health surveys. Wiley.
Krewski, D., y J. N. K. Rao. 1981. «Inference From Stratified Samples: Properties of the Linearization, Jackknife and Balanced Repeated Replication Methods». The Annals of Statistics 9 (5): 1010-19.
McCarthy, P. J. 1969. «Pseudo-Replication: Half Samples». Revue de l’Institut International de Statistique / Review of the International Statistical Institute 37 (3): 239-64. https://doi.org/10.2307/1402116.
Mosteller, F. 1968. Data Analysis, Including Statistics. https://books.google.cl/books?id=6ptDHQAACAAJ.
Preston, John. 2009. «Rescaled bootstrap for stratified multistage sampling». Survey Methodology 35 (2): 227-34.
Quenouille, M. H. 1956. «Notes on Bias in Estimation». Biometrika 43 (3/4): 353-60.
Rao, J. N. K., y C. F. J. Wu. 1984. «BOOTSTRAP INFERENCE FOR SAMPLE SURVEYS». En Procedings of the Survey Research Methods Section, 106-12. American Statistical Association.
———. 1988. «Resampling Inference with Complex Survey Data». Journal of the American Statistical Association 83 (401): 231-41. https://doi.org/10.1080/01621459.1988.10478591.
Shao, J., y D. Tu. 2012. The Jackknife and Bootstrap. Springer Series en Statistics. Springer New York.
Valliant, Richard, y Jill A. Dever. 2017. Survey Weights: A Step-by-step Guide to Calculation. 1 edition. Stata Press.
Wolter, Kirk M. 2007. Introduction to variance estimation. 2nd ed. Statistics for social y behavioral sciences. Springer.