2.2 Pruebas de hipótesis

A excepción del juzgamiento de hipótesis, las inferencias que hacen los estadísticos bayesianos, acerca de poblaciones normales, son muy similares a las que los estadísticos de la tradición frecuentista, de Neyman y Pearson, hacen. Consideremos la siguiente situación.

Un instrumento mide la posición de un objeto con un determinado error. Éste error está distribuido de manera uniforme en el intervalo (-1cm, 1cm). Supongamos que el instrumento midió la posición de un objeto en +0.9999cm del origen. Planteamos la siguiente hipótesis nula, H: La posición real del objeto es exactamente el origen.

Imagine que planteamos este problema de inferencia estadística a dos estadísticos, uno frecuentista clásico y el otro acérrimo bayesiano.

  • Razonamiento del frecuentista: si la hipótesis nula es verdadera, ha ocurrido un evento con una probabilidad (a dos colas) de ocurrencia de 0.0001 o menos. Mediante un criterio razonable (nivel de significación), este es un evento muy raro y por lo tanto rechaza la hipótesis nula.
  • Razonamiento del bayesiano: dada una observación, la verosimilitud asociada con la posición del objeto en el intervalo -0.0001 y +1.9999 es la misma, 0.5. Fuera de esos límites la verosimilitud es nula. Ahora, el origen está dentro de la región en donde la verosimilitud es máxima; por lo tanto sea cual sea la distribución a previa asociada al parámetro de posición, la distribución posterior tomara el valor cero en cualquier lugar fuera del intervalo -0.0001 y +1.9999. Así, con la observación disponible, no hay evidencia para el rechazo de la hipótesis nula.

Bajo esta paradoja, Brewer (2002) sugiere que ambos estadísticos tienen razón, pero a la vez están equivocados. El frecuentista tiene razón en afirmar que, con la evidencia disponible, ha ocurrido un evento extraordinariamente extraño o que la hipótesis nula es falsa. El bayesiano tiene razón en argumentar que, en términos de la situación, no hay evidencia en contra de la hipótesis nula. Esta paradoja se presenta porque los bayesianos tienden a trabajar dentro de la situación que ellos creen que existe y la lógica bayesiana se mueve en ese marco de referencia. Los bayesianos hacen las inferencias en términos de la verosimilitud de los eventos observados, mientras que los frecuentistas hacen inferencias en términos de eventos que ni siquiera han ocurrido. .

2.2.1 Factor de Bayes

El juzgamiento de hipótesis del enfoque frecuentista se puede efectuar en el ámbito Bayesiano por medio del contraste entre dos modelos. Suponiendo que existen dos modelos \(M1\) y \(M2\) candidatos para \(\mathbf{Y}\), se define el Factor de Bayes en favor del modelo \(M1\) como la razón de las densidades marginales de los datos para los dos modelos. Es posible demostrar que este factor es equivalente a la siguiente expresión:

\[\begin{equation} \tag{2.5} FB=\frac{p(\mathbf{Y} \mid M1)}{p(\mathbf{Y} \mid M2)}=\frac{Pr(M1 \mid \mathbf{Y})/Pr(M2 \mid \mathbf{Y})}{Pr(M1)/Pr(M2)} \end{equation}\]

Para evaluar esta última expresión es necesario recurrir a la densidad previa y posterior del parámetro de interés, asumiendo que los modelos están parametrizados por éstos. Se puede ver que cuando los modelos \(M1\) y \(M2\) tienen la misma distribución previa, entonces el factor de Bayes se reduce a la razón de densidad posterior de los dos modelos. Adicionalmente este factor sólo está definido cuando la integral de la densidad marginal de \(\mathbf{Y}\) bajo cada modelo converge. En la expresión (2.5) se claro que valores grandes del factor muestran evidencia a favor del modelo \(M1\); valores menores de 1, a favor del modelo \(M2\); mientras que valores cercanos a 1 no muestran evidencias claras hacia ninguno de los dos modelos.

En A. Gelman et al. (1995) se presenta el siguiente ejemplo sencillo sobre la presencia o ausencia de la enfermedad de la hemofilia, una enfermedad genética especialmente grave en las mujeres. Para una mujer quien tiene un hermano portador del gen, el parámetro \(\theta\) describe la presencia o ausencia del gen en ella, y toma valores de 1 (presencia del gen) y 0 (ausencia del gen). La distribución previa del parámetro es \(Pr(\theta=1)=Pr(\theta=0)=0.5\). El objetivo es evaluar el sistema \(M_1:\ \theta=1\) y \(M_2:\ \theta=0\), con base en el hecho de que ella tiene dos hijos ambos no portadores del gen. De esta forma, el factor de Bayes se expresa como:

\[\begin{equation*} FB=\frac{p(y_1=0,\ y_2=0|\theta=1)}{p(y_1=0,\ y_2=0|\theta=0)}=\frac{0.25}{1}=0.25 \end{equation*}\] De donde se evidencia mayor apoyo a la hipótesis \(\theta=0\).

2.2.2 Valor-\(p\) Bayesiano

En la inferencia clásica, se define el valor-\(p\) como la probabilidad de que la estadística de prueba tome valores más extremos a los observados, y se compara con el nivel de significancia, previamente establecido, para tomar una decisión acerca de la hipótesis nula. En el ámbito Bayesiano, el valor-\(p\) se define como la probabilidad de que la estadística de prueba \(T\) calculada sobre los datos replicados \(y^{rep}\) sean más extremos al observado, y la probabilidad se toma sobre la distribución posterior del parámetro \(\theta\) y la distribución predictiva posterior de \(y^{rep}\). Específicamente, queda determinado por la siguiente expresión:

\[\begin{equation*} p_B=\int\int_{T(y^{rep}) \geq T(y)}p(y^{rep}|\theta)p(\theta|y)dy^{rep}d\theta \end{equation*}\]

A diferencia del valor-\(p\) clásico, donde solo valores pequeños muestran evidencia en contra de la hipótesis nula, un valor-\(p\) Bayesiano extremo (menor a 0.01 o mayor a 0.99) sugiere que los valores observados difícilmente pueden ser replicados si el modelo fuera verdadero.

Referencias

Brewer, K. R. W. 2002. Combined Survey Sampling Inference: Weighing Basu’s Elephants. A Hodder Arnold Publication. Arnold.
Gelman, A., J. B. Carlin, H. S. Stern, y D. B. Rubin. 1995. Bayesian Data Analysis. 1.ª ed. Chapman; Hall/CRC.