A.2 Distribuciones continuas

A.2.1 Distribución Uniforme Continua

Definición A.6 Una variable aleatoria \(Y\) tiene distribución uniforme continua sobre el intervalo \([a,b]\) con \(a<b\) si su función de densidad está dada por:

\[\begin{equation} f_Y(y)=\frac{1}{b-a}I_{[a,b]}(y) \end{equation}\]

Resultado A.5 Si \(Y\) es una variable aleatoria con distribución uniforme continua sobre \([a,b]\), entonces

  • \(E(Y)=\frac{a+b}{2}\).
  • \(Var(Y)=\frac{(b-a)^2}{12}\).
  • \(m_Y(t)=\frac{e^{bt}-e^{at}}{(b-a)t}\).

A.2.2 Distribución Weibull

Definición A.7 Una variable aleatoria \(Y\) tiene distribución uniforme continua sobre los reales positivos si su función de densidad está dada por:

\[\begin{equation} p(Y\mid \theta, \gamma)=\frac{\theta}{\gamma^\theta}y^{\theta-1}exp\left\{-\frac{y^\theta}{\gamma^\theta} \right\}I_{[0,\infty)}(y) \end{equation}\]

Resultado A.6 Si \(Y\) es una variable aleatoria con distribución Weibull, entonces

  • \(E(Y)=\gamma \Gamma\left(1+\frac{1}{\theta}\right)\).
  • \(Var(Y)=\gamma^2 \left[ \Gamma\left(1+\frac{2}{\theta}\right) + \Gamma^2\left(1+\frac{1}{\theta}\right)\right]\).
  • \(m_Y(t)=\sum_{n=0}^\infty \frac{t^n\gamma^n}{n!}\Gamma\left(1+\frac{n}{\theta}\right), \ \theta\geq 1\).

A.2.3 Distribución valor-extremo

Definición A.8 Una variable aleatoria \(Y\) tiene distribución valor-extremo si su función de densidad está dada por:

\[\begin{equation} p(y \mid \theta, \lambda )= \theta \exp(\theta y)\exp\left\{\lambda-\exp(\lambda+\theta y)\right\} \end{equation}\]

Resultado A.7 Si \(Y\) es una variable aleatoria con distribución valor-extremo, entonces

  • \(E(Y)=-\frac{\lambda}{\theta}-\frac{\epsilon}{\theta}\).
  • \(Var(Y)=\frac{\pi^2}{6\theta^2}\).
Donde \(\pi\approx 3.1416\) es el número Pi y \(\epsilon=0.5772\) es la constante de Euler.

A.2.4 Distribución Gamma

Definición A.9 Una variable aleatoria \(Y\) tiene distribución Gamma con parámetro de forma \(\alpha>0\) y parámetro de escala \(\theta>0\) si su función de densidad está dada por:

\[\begin{equation} p(\theta \mid \alpha,\beta)=\frac{\beta^\alpha}{\Gamma(\alpha)}\theta^{\alpha-1} e^{-\beta\theta}I_{(0,\infty)}(\theta). \end{equation}\]

donde \(\Gamma(k)=\int_0^{\infty}u^{k-1}\exp(-u)\ du\).


La distribución Gamma tiene dos parámetros: \(\alpha\) y \(\beta\), en este caso, el vector de hiper-parámetros es \(\boldsymbol \theta=(\alpha,\theta)'\) donde el espacio paramétrico está dado por \(\Theta=(0,\infty)\times(0,\infty)\).

Resultado 4.8 Si \(Y\) es una variable aleatoria con distribución Gamma con parámetro de forma \(\alpha\) y parámetro de escala \(\theta\), entonces

  • \(E(Y)=\alpha/\beta\).
  • \(Var(Y)=\alpha/\theta^2\).
Resultado A.8 Sea \(Y_1\), \(\cdots\), \(Y_n\) variables aleatorias independientes con distribución Gamma con parámetro de forma \(\alpha_i\) y parámetro de escala \(\beta\) para \(i=1,\cdots,n\), entonces la variable \(\sum_{i=1}^nX_i\) tiene distribución Gamma con parámetro de forma \(\sum_{i=1}^n\alpha_i\) y parámetro de escala \(\theta\).

A.2.5 Distribución Gamma-inversa

Definición A.10 Una variable aleatoria \(Y\) tiene distribución Gamma-inversa con parámetro de forma \(\alpha>0\) y parámetro de escala \(\beta>0\) si su función de densidad está dada por:

\[\begin{equation} p(y \mid \alpha,\beta)=\frac{\beta^\alpha}{\Gamma(\alpha)}y^{-\alpha-1} e^{-\beta/y}I_{(0,\infty)}(y). \end{equation}\]

donde \(\Gamma(k)=\int_0^{\infty}u^{k-1}\exp(-u)\ du\).


La distribución Gamma-inversa tiene dos parámetros: \(\alpha\) y \(\beta\); en este caso, el vector de hiper-parámetros es \(\boldsymbol \theta=(\alpha,\beta)'\) donde el espacio paramétrico está dado por \(\Theta=(0,\infty)\times(0,\infty)\).

Resultado A.9 Si \(Y\) es una variable aleatoria con distribución Gamma-inversa con parámetro de forma \(\alpha\) y parámetro de escala \(\beta\), entonces

  • \(E(Y)=\beta/(\alpha-1)\).
  • \(Var(Y)=\theta^2/(\alpha-1)^2(\alpha-2)\).
Resultado A.10 Si \(X\) es una variable aleatoria con distribución \(Gamma(\alpha,\beta)\), entonces \(1/X\) tiene distribución \(Gamma-inversa(\alpha,1/\beta)\).

A.2.6 Distribución exponencial

Definición A.11 Una variable aleatoria \(Y\) tiene distribución exponencial con parámetro de escala \(\theta>0\) si su función de densidad está dada por:

\[\begin{equation} f_Y(y)=\frac{1}{\theta}e^{-y/\theta}I_{(0,\infty)}(y) \end{equation}\]

La distribución exponencial es un caso particular de la distribución Gamma cuando el parámetro de forma \(k\) toma el valor 1, y usualmente se utiliza para describir la vida útil de un componente eléctrico o el tiempo necesario para la ocurrencia de algún evento.

Resultado A.11 Si \(Y\) es una variable aleatoria con distribución exponencial con parámetro \(\theta\), entonces

  • \(E(Y)=\theta\).
  • \(Var(Y)=\theta^2\).
  • \(m_Y(t)=\frac{1}{1-\theta t}\) para \(t<1/\theta\), y no existe para otros valores de \(t\).
Resultado A.12 Sea \(Y_1\), \(\cdots\), \(Y_n\) variables aleatorias independientes e idénticamente distribuidas con distribución exponencial con parámetro de escala \(\theta\), entonces la variable \(\sum_{i=1}^nX_i\) tiene distribución Gamma con parámetro de forma \(n\) y parámetro de escala \(\theta\).

A.2.7 Distribución Beta

Definición A.12 Una variable aleatoria \(Y\) tiene distribución Beta con parámetro de forma \(\alpha>0\) y parámetro de escala \(\beta>0\) si su función de densidad está dada por:

\[\begin{equation} f_Y(y)=\frac{1}{Beta(\alpha,\beta)}y^{\alpha-1}(1-y)^{\beta-1}I_{[0,1]}(y). \end{equation}\]

donde \(Beta(\alpha,\beta)=\dfrac{\gamma(\alpha)\gamma(\beta)}{\gamma(\alpha+\beta)}\).


La distribución Beta tiene dos parámetros: \(\alpha\) y \(\beta\); en este caso, el vector de parámetros es \(\boldsymbol \theta=(\alpha,\beta)'\) donde el espacio paramétrico está dado por \(\Theta=(0,\infty)\times(0,\infty)\). Pero cuando uno de los dos parámetros es fijo, por ejemplo \(\theta\), entonces la distribución tendría un sólo parámetro: \(k\).

Resultado 3.4 Si \(Y\) es una variable aleatoria con distribución Gamma con parámetro de forma \(k\) y parámetro de escala \(\theta\), entonces

  • \(E(Y)=\frac{\alpha}{\alpha + \beta}\).
  • \(Var(Y)=\frac{\alpha\beta}{(\alpha+\beta)^2(\alpha+\beta+1)}\)

A.2.8 Distribución normal

La distribución normal también es llamada la distribución gaussiana, rindiendo homenaje al matemático alemán Carl Friedrich Gauss (1777-1855). La distribución normal es, sin duda, una de las distribuciones más importantes, puesto que una gran parte de la teoría estadística fue desarrollada inicialmente para variables con esta distribución; por el otro lado, gracias al teorema central del límite, muchas distribuciones ajenas a la normal puede ser aproximadas por esta.

Definición A.13 Una variable aleatoria \(Y\) tiene distribución normal con parámetros \(\mu\) y \(\sigma^2\) si su función de densidad está dada por:

\[\begin{equation} f_Y(y)=\frac{1}{\sqrt{2\pi\sigma^2}}\exp\left\{-\frac{1}{2\sigma^2}(y-\mu)^2\right\}I_\mathbb{R}(y), \end{equation}\]

donde \(\sigma>0\) y se nota como \(Y\sim N(\mu,\sigma^2)\).


La distribución normal tiene dos parámetros, representado como \(\boldsymbol \theta=(\mu,\sigma^2)\), mientras que su espacio paramétrico es \(\Theta=\mathbb{R}\times(0,\infty)\).

Resultado 3.5 Si \(Y\) es una variable aleatoria con distribución normal con parámetros \(\mu\) y \(\sigma^2\), entonces

  • \(E(Y)=\mu\).
  • \(Var(Y)=\sigma^2\).
  • \(m_Y(t)=\exp\{\mu t+\frac{1}{2}\sigma^2t^2\}\).

Cuando \(\mu=0\) y \(\sigma=1\), se dice que \(Y\) tiene distribución normal estándar y usualmente se denota por \(Z\).

Resultado 4.9 Si \(Y\sim N(\mu,\sigma^2)\), y \(\alpha\), \(\beta\) son constantes, entonces la variable \(\alpha Y+\beta\) tiene distribución \(N(\alpha\mu+\beta,\alpha^2\sigma^2)\).


Prueba. Se usará el hecho de que la función generadora de momentos caracteriza la distribución probabilística. Se tiene que:

\[\begin{align*} m_{\alpha Y+\beta}(t)&=E(e^{t(\alpha Y+\beta)})\\ &=E(e^{\alpha tY})e^{\beta t}\\ &=m_Y(\alpha t)e^{\beta t}\\ &=e^{\mu\alpha t+\sigma^2\alpha^2t/2}e^{\beta t}\\ &=e^{(\alpha\mu+\beta)t+\sigma^2\alpha^2t/2} \end{align*}\]

la cual es la función generadora de momentos de una distribución \(N(\alpha\mu+\beta,\alpha^2\sigma^2)\), y el resultado queda demostrado.


Como consecuencia inmediata del anterior resultado, se define la estandarización, que es fundamental en la teoría relacionada con las distribuciones normales. Si \(Y\sim N(\mu,\sigma^2)\), entonces la variable \(Z=\frac{Y-\mu}{\sigma}\) tiene distribución normal estándar, y la anterior transformación se conoce como la normal estandarizada.

Resultado A.13 Sea \(Y_1\), \(\cdots\), \(Y_n\) variables aleatorias independientes, donde \(Y_i\sim N(\mu_i,\sigma^2_i)\) con \(i=1,\cdots,n\), entonces la variable \(\sum_{i=1}^nY_i\) tiene distribución \(N(\sum_{i=1}^n\mu_i,\sum_{i=1}^n\sigma_i^2)\).

A.2.9 Distribución log-normal

Definición A.14 Una variable aleatoria \(Y\) tiene distribución log-normal si su función de densidad está dada por:

\[\begin{equation} p(Y\mid \mu, \sigma^2)=\frac{1}{y\sqrt{2\pi\sigma^2}}\exp\{\frac{-1}{2\sigma^2(\ln(y)-\mu)^2}\} \end{equation}\]

Nótese que si \(\mu\) y \(\sigma^2\) son la media y la varianza de \(\ln(Y)\), entonces \(\ln(Y)\) tiene distribución normal de media \(\mu\) y varianza \(\sigma^2\).

Resultado A.14 Si \(Y\) es una variable aleatoria con distribución log-normal, entonces

  • \(E(Y)=\exp(\mu+\sigma^2/2)\).
  • \(Var(Y)=(\exp(\sigma^2-1)) \exp(2\mu+\sigma^2)\).

A.2.10 Distribución Ji-cuadrado

Definición A.15 Una variable aleatoria \(Y\) tiene distribución Ji-cuadrado con \(n\) grados de libertad, con \(n\) entero positivo, si su función de densidad está dada por:

\[\begin{equation} f_Y(y)=\frac{y^{(n/2)-1}e^{-y/2}}{2^{n/2}\Gamma(n/2)}I_{(0,\infty)}(y), \end{equation}\]

y se nota como \(Y\sim\chi^2_n\).


La distribución Ji-cuadrado con \(n\) grados de libertad es un caso particular de la distribución Gamma cuando el parámetro de forma \(k\) toma el valor \(n/2\) y el parámetro de escala toma el valor 2. También, en la literatura estadística existe la siguiente definición para la distribución Ji-cuadrado.

Definición A.16 Si \(Z_1\), \(\cdots\), \(Z_n\) son variables aleatorias independientes e idénticamente distribuidas con distribución normal estándar, entonces la variable \(\sum_{i=1}^nZ_i^2\) tiene distribución Ji-cuadrado con \(n\) grados de libertad.

Resultado A.15 Si \(Y\) es una variable aleatoria con distribución Ji-cuadro con \(n\) grados de libertad, entonces

  • \(E(Y)=n\).
  • \(Var(Y)=2n\).
  • \(m_Y(t)=\left(\frac{1}{1-2t}\right)^{n/2}\) para \(t<1/2\), y no existe para otros valores de \(t\).
Resultado A.16 Sea \(Z_1\), \(\cdots\), \(Z_m\) variables aleatorias independientes con distribución \(\chi^2_{n_i}\) para \(i=1,\cdots,m\), entonces la variable \(\sum_{i=1}^mZ_i\) tiene distribución Ji-cuadrado con \(\sum_{i=1}^mn_i\) grados de libertad.

A.2.11 Distribución t-student

El descubrimiento de la distribución t-student fue publicado por el estadístico inglés William Sealy Gosset (1876-1937) en el año 1908 cuando trabajaba en la famosa empresa cervecera Guinness. La publicación lo hizo de forma anónimo bajo el nombre de Student, pues Guinness le prohibía la publicación por ser el descubrimiento parte de resultados de investigación realizado por la empresa.

Definición A.17 Una variable aleatoria \(Y\) tiene distribución t-student con \(n\) grados de libertad si su función de densidad está dada por:

\[\begin{equation} f_Y(y)=\frac{\Gamma(\frac{n+1}{2})}{\sqrt{\pi n}\ \Gamma(\frac{n}{2})}\left(1+\frac{y^2}{n}\right)^{-(n+1)/2}I_\mathbb{R}(y), \end{equation}\]

donde \(n>0\) y se nota como \(Y\sim t_n\).


Otra definición que se encuentra frecuentemente en la literatura estadística es la siguiente.

Definición A.18 Sea \(Z\) una variable aleatoria con distribución normal estándar y \(Y\) una variable aleatoria con distribución Ji-cuadrado con \(n\) grados de libertad, si \(Z\) y \(Y\) son independientes, entonces la variable \(\frac{Z}{\sqrt{Y/n}}\) tiene distribución t-student con \(n\) grados de libertad.


La función de densidad de la distribución t-student es muy parecida a la de distribución normal estándar, entre más grande sea el grado de libertad, más se parece a la distribución normal estándar.

Resultado 4.13 Si \(Y\) es una variable aleatoria con distribución t-student con \(n\) grados de libertad, entonces

  • \(E(Y)=0\) para \(n>1\).
  • \(Var(Y)=\frac{n}{n-2}\) para \(n>2\).
La distribución t-student no tiene función generadora de momentos.

A.2.12 Distribución t-student generalizada

Definición A.19 Una variable aleatoria \(Y\) tiene distribución t-student con \(n\) grados de libertad, parámetro de centralidad \(\theta\) y parámetro de escala \(\sigma^2\), si su función de densidad está dada por:

\[\begin{equation} f_Y(y)=\frac{\Gamma((n+1)/2)}{\Gamma(n/2)\sqrt{n\pi}\sigma}\left[1+\frac{1}{n}\left(\frac{y-\theta}{\sigma}\right)^2\right]^{-(n+1)/2} I_\mathbb{R}(y), \end{equation}\]

donde \(n>0\) y se nota como \(Y\sim t_n(\theta,\sigma^2)\).

Resultado A.17 Si \(Y\) es una variable aleatoria con distribución t-student generalizada, entonces

  • \(E(Y)=\theta\) para \(n>1\).
  • \(Var(Y)=\frac{n}{n-2}\sigma^2\) para \(n>2\).

A.2.13 Distribución F

La distribución F también se conoce como la distribución F de Fisher o distribución de Fisher-Snedecor, refiriendo al gran estadístico Ronald Aylmer Fisher (1890-1962) y el fundador del primer departamento de estadística en los Estados Unidos, George Waddel Snedecor (1881-1974).

Definición A.20 Una variable aleatoria \(Y\) tiene distribución F con \(m\) grados de libertad en el numerador y \(n\) grados de libertado en el denominador si su función de densidad está dada por:

\[\begin{equation} f_Y(y)=\frac{\Gamma(\frac{m+n}{2})}{\Gamma(\frac{m}{2})\Gamma(\frac{n}{2})}\left(\frac{m}{n}\right)^{m/2}\frac{z^{\frac{m}{2}-1}}{\left(1+\frac{m}{n}z\right)^{\frac{m+n}{2}}}, \end{equation}\]

y se nota como \(Y\sim F^m_n\).


Otra definición para la distribución F es como sigue:

Definición A.21 Sea \(Y\) y \(Y\) variables aleatorias independientes con distribuciones Ji-cuadrado con \(m\) y \(n\) grados de libertad, respectivamente, entonces la variable \(\frac{Y/m}{Y/n}\) tiene distribución F con \(m\) grados de libertad en el numerador y \(n\) grados de libertado en el denominador.

Resultado A.18 Si \(Y\) es una variable aleatoria con distribución F con \(m\) grados de libertad en el numerador y \(n\) grados de libertado en el denominador, entonces

  • \(E(Y)=\frac{n}{n-2}\) para \(n>2\).
  • \(Var(Y)=\frac{2n^2(m+n-2)}{m(n-2)^2(n-4)}\) para \(n>4\).
La distribución F no tiene función generadora de momentos.