A.2 Distribuciones continuas
A.2.1 Distribución Uniforme Continua
Definición A.6 Una variable aleatoria \(Y\) tiene distribución uniforme continua sobre el intervalo \([a,b]\) con \(a<b\) si su función de densidad está dada por:
\[\begin{equation} f_Y(y)=\frac{1}{b-a}I_{[a,b]}(y) \end{equation}\]Resultado A.5 Si \(Y\) es una variable aleatoria con distribución uniforme continua sobre \([a,b]\), entonces
- \(E(Y)=\frac{a+b}{2}\).
- \(Var(Y)=\frac{(b-a)^2}{12}\).
- \(m_Y(t)=\frac{e^{bt}-e^{at}}{(b-a)t}\).
A.2.2 Distribución Weibull
Definición A.7 Una variable aleatoria \(Y\) tiene distribución uniforme continua sobre los reales positivos si su función de densidad está dada por:
\[\begin{equation} p(Y\mid \theta, \gamma)=\frac{\theta}{\gamma^\theta}y^{\theta-1}exp\left\{-\frac{y^\theta}{\gamma^\theta} \right\}I_{[0,\infty)}(y) \end{equation}\]Resultado A.6 Si \(Y\) es una variable aleatoria con distribución Weibull, entonces
- \(E(Y)=\gamma \Gamma\left(1+\frac{1}{\theta}\right)\).
- \(Var(Y)=\gamma^2 \left[ \Gamma\left(1+\frac{2}{\theta}\right) + \Gamma^2\left(1+\frac{1}{\theta}\right)\right]\).
- \(m_Y(t)=\sum_{n=0}^\infty \frac{t^n\gamma^n}{n!}\Gamma\left(1+\frac{n}{\theta}\right), \ \theta\geq 1\).
A.2.3 Distribución valor-extremo
Definición A.8 Una variable aleatoria \(Y\) tiene distribución valor-extremo si su función de densidad está dada por:
\[\begin{equation} p(y \mid \theta, \lambda )= \theta \exp(\theta y)\exp\left\{\lambda-\exp(\lambda+\theta y)\right\} \end{equation}\]Resultado A.7 Si \(Y\) es una variable aleatoria con distribución valor-extremo, entonces
- \(E(Y)=-\frac{\lambda}{\theta}-\frac{\epsilon}{\theta}\).
- \(Var(Y)=\frac{\pi^2}{6\theta^2}\).
A.2.4 Distribución Gamma
Definición A.9 Una variable aleatoria \(Y\) tiene distribución Gamma con parámetro de forma \(\alpha>0\) y parámetro de escala \(\theta>0\) si su función de densidad está dada por:
\[\begin{equation} p(\theta \mid \alpha,\beta)=\frac{\beta^\alpha}{\Gamma(\alpha)}\theta^{\alpha-1} e^{-\beta\theta}I_{(0,\infty)}(\theta). \end{equation}\]
donde \(\Gamma(k)=\int_0^{\infty}u^{k-1}\exp(-u)\ du\).La distribución Gamma tiene dos parámetros: \(\alpha\) y \(\beta\), en este caso, el vector de hiper-parámetros es \(\boldsymbol \theta=(\alpha,\theta)'\) donde el espacio paramétrico está dado por \(\Theta=(0,\infty)\times(0,\infty)\).
Resultado 4.8 Si \(Y\) es una variable aleatoria con distribución Gamma con parámetro de forma \(\alpha\) y parámetro de escala \(\theta\), entonces
- \(E(Y)=\alpha/\beta\).
- \(Var(Y)=\alpha/\theta^2\).
A.2.5 Distribución Gamma-inversa
Definición A.10 Una variable aleatoria \(Y\) tiene distribución Gamma-inversa con parámetro de forma \(\alpha>0\) y parámetro de escala \(\beta>0\) si su función de densidad está dada por:
\[\begin{equation} p(y \mid \alpha,\beta)=\frac{\beta^\alpha}{\Gamma(\alpha)}y^{-\alpha-1} e^{-\beta/y}I_{(0,\infty)}(y). \end{equation}\]
donde \(\Gamma(k)=\int_0^{\infty}u^{k-1}\exp(-u)\ du\).La distribución Gamma-inversa tiene dos parámetros: \(\alpha\) y \(\beta\); en este caso, el vector de hiper-parámetros es \(\boldsymbol \theta=(\alpha,\beta)'\) donde el espacio paramétrico está dado por \(\Theta=(0,\infty)\times(0,\infty)\).
Resultado A.9 Si \(Y\) es una variable aleatoria con distribución Gamma-inversa con parámetro de forma \(\alpha\) y parámetro de escala \(\beta\), entonces
- \(E(Y)=\beta/(\alpha-1)\).
- \(Var(Y)=\theta^2/(\alpha-1)^2(\alpha-2)\).
A.2.6 Distribución exponencial
Definición A.11 Una variable aleatoria \(Y\) tiene distribución exponencial con parámetro de escala \(\theta>0\) si su función de densidad está dada por:
\[\begin{equation} f_Y(y)=\frac{1}{\theta}e^{-y/\theta}I_{(0,\infty)}(y) \end{equation}\]La distribución exponencial es un caso particular de la distribución Gamma cuando el parámetro de forma \(k\) toma el valor 1, y usualmente se utiliza para describir la vida útil de un componente eléctrico o el tiempo necesario para la ocurrencia de algún evento.
Resultado A.11 Si \(Y\) es una variable aleatoria con distribución exponencial con parámetro \(\theta\), entonces
- \(E(Y)=\theta\).
- \(Var(Y)=\theta^2\).
- \(m_Y(t)=\frac{1}{1-\theta t}\) para \(t<1/\theta\), y no existe para otros valores de \(t\).
A.2.7 Distribución Beta
Definición A.12 Una variable aleatoria \(Y\) tiene distribución Beta con parámetro de forma \(\alpha>0\) y parámetro de escala \(\beta>0\) si su función de densidad está dada por:
\[\begin{equation} f_Y(y)=\frac{1}{Beta(\alpha,\beta)}y^{\alpha-1}(1-y)^{\beta-1}I_{[0,1]}(y). \end{equation}\]
donde \(Beta(\alpha,\beta)=\dfrac{\gamma(\alpha)\gamma(\beta)}{\gamma(\alpha+\beta)}\).La distribución Beta tiene dos parámetros: \(\alpha\) y \(\beta\); en este caso, el vector de parámetros es \(\boldsymbol \theta=(\alpha,\beta)'\) donde el espacio paramétrico está dado por \(\Theta=(0,\infty)\times(0,\infty)\). Pero cuando uno de los dos parámetros es fijo, por ejemplo \(\theta\), entonces la distribución tendría un sólo parámetro: \(k\).
Resultado 3.4 Si \(Y\) es una variable aleatoria con distribución Gamma con parámetro de forma \(k\) y parámetro de escala \(\theta\), entonces
- \(E(Y)=\frac{\alpha}{\alpha + \beta}\).
- \(Var(Y)=\frac{\alpha\beta}{(\alpha+\beta)^2(\alpha+\beta+1)}\)
A.2.8 Distribución normal
La distribución normal también es llamada la distribución gaussiana, rindiendo homenaje al matemático alemán Carl Friedrich Gauss (1777-1855). La distribución normal es, sin duda, una de las distribuciones más importantes, puesto que una gran parte de la teoría estadística fue desarrollada inicialmente para variables con esta distribución; por el otro lado, gracias al teorema central del límite, muchas distribuciones ajenas a la normal puede ser aproximadas por esta.
Definición A.13 Una variable aleatoria \(Y\) tiene distribución normal con parámetros \(\mu\) y \(\sigma^2\) si su función de densidad está dada por:
\[\begin{equation} f_Y(y)=\frac{1}{\sqrt{2\pi\sigma^2}}\exp\left\{-\frac{1}{2\sigma^2}(y-\mu)^2\right\}I_\mathbb{R}(y), \end{equation}\]
donde \(\sigma>0\) y se nota como \(Y\sim N(\mu,\sigma^2)\).La distribución normal tiene dos parámetros, representado como \(\boldsymbol \theta=(\mu,\sigma^2)\), mientras que su espacio paramétrico es \(\Theta=\mathbb{R}\times(0,\infty)\).
Resultado 3.5 Si \(Y\) es una variable aleatoria con distribución normal con parámetros \(\mu\) y \(\sigma^2\), entonces
- \(E(Y)=\mu\).
- \(Var(Y)=\sigma^2\).
- \(m_Y(t)=\exp\{\mu t+\frac{1}{2}\sigma^2t^2\}\).
Cuando \(\mu=0\) y \(\sigma=1\), se dice que \(Y\) tiene distribución normal estándar y usualmente se denota por \(Z\).
Prueba. Se usará el hecho de que la función generadora de momentos caracteriza la distribución probabilística. Se tiene que:
\[\begin{align*} m_{\alpha Y+\beta}(t)&=E(e^{t(\alpha Y+\beta)})\\ &=E(e^{\alpha tY})e^{\beta t}\\ &=m_Y(\alpha t)e^{\beta t}\\ &=e^{\mu\alpha t+\sigma^2\alpha^2t/2}e^{\beta t}\\ &=e^{(\alpha\mu+\beta)t+\sigma^2\alpha^2t/2} \end{align*}\]
la cual es la función generadora de momentos de una distribución \(N(\alpha\mu+\beta,\alpha^2\sigma^2)\), y el resultado queda demostrado.Como consecuencia inmediata del anterior resultado, se define la estandarización, que es fundamental en la teoría relacionada con las distribuciones normales. Si \(Y\sim N(\mu,\sigma^2)\), entonces la variable \(Z=\frac{Y-\mu}{\sigma}\) tiene distribución normal estándar, y la anterior transformación se conoce como la normal estandarizada.
A.2.9 Distribución log-normal
Definición A.14 Una variable aleatoria \(Y\) tiene distribución log-normal si su función de densidad está dada por:
\[\begin{equation} p(Y\mid \mu, \sigma^2)=\frac{1}{y\sqrt{2\pi\sigma^2}}\exp\{\frac{-1}{2\sigma^2(\ln(y)-\mu)^2}\} \end{equation}\]
Nótese que si \(\mu\) y \(\sigma^2\) son la media y la varianza de \(\ln(Y)\), entonces \(\ln(Y)\) tiene distribución normal de media \(\mu\) y varianza \(\sigma^2\).Resultado A.14 Si \(Y\) es una variable aleatoria con distribución log-normal, entonces
- \(E(Y)=\exp(\mu+\sigma^2/2)\).
- \(Var(Y)=(\exp(\sigma^2-1)) \exp(2\mu+\sigma^2)\).
A.2.10 Distribución Ji-cuadrado
Definición A.15 Una variable aleatoria \(Y\) tiene distribución Ji-cuadrado con \(n\) grados de libertad, con \(n\) entero positivo, si su función de densidad está dada por:
\[\begin{equation} f_Y(y)=\frac{y^{(n/2)-1}e^{-y/2}}{2^{n/2}\Gamma(n/2)}I_{(0,\infty)}(y), \end{equation}\]
y se nota como \(Y\sim\chi^2_n\).La distribución Ji-cuadrado con \(n\) grados de libertad es un caso particular de la distribución Gamma cuando el parámetro de forma \(k\) toma el valor \(n/2\) y el parámetro de escala toma el valor 2. También, en la literatura estadística existe la siguiente definición para la distribución Ji-cuadrado.
Resultado A.15 Si \(Y\) es una variable aleatoria con distribución Ji-cuadro con \(n\) grados de libertad, entonces
- \(E(Y)=n\).
- \(Var(Y)=2n\).
- \(m_Y(t)=\left(\frac{1}{1-2t}\right)^{n/2}\) para \(t<1/2\), y no existe para otros valores de \(t\).
A.2.11 Distribución t-student
El descubrimiento de la distribución t-student fue publicado por el estadístico inglés William Sealy Gosset (1876-1937) en el año 1908 cuando trabajaba en la famosa empresa cervecera Guinness. La publicación lo hizo de forma anónimo bajo el nombre de Student, pues Guinness le prohibía la publicación por ser el descubrimiento parte de resultados de investigación realizado por la empresa.
Definición A.17 Una variable aleatoria \(Y\) tiene distribución t-student con \(n\) grados de libertad si su función de densidad está dada por:
\[\begin{equation} f_Y(y)=\frac{\Gamma(\frac{n+1}{2})}{\sqrt{\pi n}\ \Gamma(\frac{n}{2})}\left(1+\frac{y^2}{n}\right)^{-(n+1)/2}I_\mathbb{R}(y), \end{equation}\]
donde \(n>0\) y se nota como \(Y\sim t_n\).Otra definición que se encuentra frecuentemente en la literatura estadística es la siguiente.
La función de densidad de la distribución t-student es muy parecida a la de distribución normal estándar, entre más grande sea el grado de libertad, más se parece a la distribución normal estándar.
Resultado 4.13 Si \(Y\) es una variable aleatoria con distribución t-student con \(n\) grados de libertad, entonces
- \(E(Y)=0\) para \(n>1\).
- \(Var(Y)=\frac{n}{n-2}\) para \(n>2\).
A.2.12 Distribución t-student generalizada
Definición A.19 Una variable aleatoria \(Y\) tiene distribución t-student con \(n\) grados de libertad, parámetro de centralidad \(\theta\) y parámetro de escala \(\sigma^2\), si su función de densidad está dada por:
\[\begin{equation} f_Y(y)=\frac{\Gamma((n+1)/2)}{\Gamma(n/2)\sqrt{n\pi}\sigma}\left[1+\frac{1}{n}\left(\frac{y-\theta}{\sigma}\right)^2\right]^{-(n+1)/2} I_\mathbb{R}(y), \end{equation}\]
donde \(n>0\) y se nota como \(Y\sim t_n(\theta,\sigma^2)\).Resultado A.17 Si \(Y\) es una variable aleatoria con distribución t-student generalizada, entonces
- \(E(Y)=\theta\) para \(n>1\).
- \(Var(Y)=\frac{n}{n-2}\sigma^2\) para \(n>2\).
A.2.13 Distribución F
La distribución F también se conoce como la distribución F de Fisher o distribución de Fisher-Snedecor, refiriendo al gran estadístico Ronald Aylmer Fisher (1890-1962) y el fundador del primer departamento de estadística en los Estados Unidos, George Waddel Snedecor (1881-1974).
Definición A.20 Una variable aleatoria \(Y\) tiene distribución F con \(m\) grados de libertad en el numerador y \(n\) grados de libertado en el denominador si su función de densidad está dada por:
\[\begin{equation} f_Y(y)=\frac{\Gamma(\frac{m+n}{2})}{\Gamma(\frac{m}{2})\Gamma(\frac{n}{2})}\left(\frac{m}{n}\right)^{m/2}\frac{z^{\frac{m}{2}-1}}{\left(1+\frac{m}{n}z\right)^{\frac{m+n}{2}}}, \end{equation}\]
y se nota como \(Y\sim F^m_n\).Otra definición para la distribución F es como sigue:
Resultado A.18 Si \(Y\) es una variable aleatoria con distribución F con \(m\) grados de libertad en el numerador y \(n\) grados de libertado en el denominador, entonces
- \(E(Y)=\frac{n}{n-2}\) para \(n>2\).
- \(Var(Y)=\frac{2n^2(m+n-2)}{m(n-2)^2(n-4)}\) para \(n>4\).