5.1 Regla de Bayes
En términos de inferencia para \(\boldsymbol{\theta}\), es necesario encontrar la distribución de los parámetros condicionada a la observación de los datos. Para este fin, es necesario definir la distribución conjunta de la variable de interés con el vector de parámetros.
\[ p(\boldsymbol{\theta},\mathbf{Y})=p(\boldsymbol{\theta})p(\mathbf{Y} \mid \boldsymbol{\theta}) \]
La distribución \(p(\boldsymbol{\theta})\) se le conoce con el nombre de distribución previa.
El término \(p(\mathbf{Y} \mid \boldsymbol{\theta})\) es la distribución de muestreo, verosimilitud o distribución de los datos.
La distribución del vector de parámetros condicionada a los datos observados está dada por
\[ p(\boldsymbol{\theta} \mid \mathbf{Y})=\frac{p(\boldsymbol{\theta},\mathbf{Y})}{p(\mathbf{Y})}=\frac{p(\boldsymbol{\theta})p(\mathbf{Y} \mid \boldsymbol{\theta})}{p(\mathbf{Y})} \]
A la distribución \(p(\boldsymbol{\theta} \mid \mathbf{Y})\) se le conoce con el nombre de distribución posterior. Nótese que el denominador no depende del vector de parámetros y considerando a los datos observados como fijos, corresponde a una constante y puede ser obviada. Por lo tanto, otra representación de la regla de Bayes está dada por
\[ p(\boldsymbol{\theta} \mid \mathbf{Y})\propto p(\mathbf{Y} \mid \boldsymbol{\theta})p(\boldsymbol{\theta}) \]