A.1 Distribuciones discretas

A.1.1 Distribución uniforme discreta

Definición 2.1 Una variable aleatoria \(Y\) tiene distribución uniforme discreta sobre el conjunto \(\{1,2,\cdots,N\}\) si su función de densidad está dada por:

\[\begin{equation} f_Y(y)=\frac{1}{N}I_{\{1,2,\cdots,N\}}(y) \end{equation}\]

Esta distribución describe situaciones donde los resultados de un experimento aleatorio tienen la misma probabilidad de ocurrencia. Entre los ejemplos de la distribución uniforme discreta en la vida práctica están el lanzamiento de una moneda corriente, el lanzamiento de un dado corriente, la extracción de una urna que contiene bolas enumeradas de 1 a \(N\).

Resultado A.1 Si \(Y\) es una variable aleatoria con distribución uniforme discreta sobre el conjunto \(\{1,2,\cdots,N\}\), entonces:

  • \(E(Y)=\frac{N+1}{2}\).
  • \(Var(Y)=\frac{N^2-1}{12}\).
  • \(m_Y(t)=\sum_{i=1}^N\frac{e^{ti}}{N}\).

A.1.2 Distribución hipergeométrica

Definición A.1 Una variable aleatoria \(Y\) tiene distribución hipergeométrica con parámetros \(n\), \(R\) y \(N\) si su función de densidad está dada por:

\[\begin{equation} f_Y(y)=\frac{\binom{R}{y}\binom{N-R}{n-y}}{\binom{N}{n}}I_{\{0,1,\cdots,n\}}(y), \end{equation}\] y se nota como \(Y\sim Hg(n,R,N)\).


Suponga que en una urna hay \(N\) bolas en total, donde \(R\) de ellas son del color negro y los \(N-R\) son del color blanco, se extrae aleatoriamente \(n\) bolas de la urna (\(n<N\)), entonces la variable “número de bolas negras extraídas” tiene distribución hipergeométrica con parámetros \(n\), \(R\) y \(N\). Otro uso de la distribución hipergeométrica es el problema de captura-recaptura.

Resultado A.2 Si \(Y\) es una variable aleatoria con distribución hipergeométrica con parámetros \(n\), \(R\) y \(N\), entonces:

  • \(E(Y)=\frac{nR}{N}\).
  • \(Var(Y)=\frac{nR(N-R)(N-n)}{N^2(N-1)}\).

El anterior resultado no incluye la función generadora de momentos, pues éste no ha resultado ser útil en la teoría relacionada con la distribución hipergeométrica.

A.1.3 Distribución Bernoulli

La distribución Bernoulli debe su nombre al matemático suizo Jacob Bernoulli (1654-1705) que describe el éxito o fracaso de un evento.

Definición A.2 Una variable aleatoria \(Y\) tiene distribución Bernoulli con parámetro \(p\in (0,1)\) si su función de densidad está dada por:

\[\begin{equation} f_Y(y)=p^y(1-p)^{1-y}I_{\{0,1\}}(y), \end{equation}\]

y se nota como \(Y\sim Ber(p)\).

Resultado A.3 Si \(Y\) es una variable aleatoria con distribución Bernoulli con parámetro \(p\), entonces:

  • \(E(Y)=p\).
  • \(Var(Y)=p(1-p)\).
  • \(m_Y(t)=pe^t+1-p\).

A.1.4 Distribución binomial

Definición A.3 Una variable aleatoria \(Y\) tiene distribución binomial con los parámetros \(n\in \mathbb{N}\) y \(p\in (0,1)\) si su función de densidad está dada por:

\[\begin{equation} f_Y(y)=\binom{n}{y}p^y(1-p)^{n-y}I_{\{0,1,\cdots,n\}}(y), \end{equation}\]

y se nota como \(Y\sim Bin(n,p)\).
Resultado 1.3 Sea \(Y_1\), \(\cdots\), \(Y_n\) variables aleatorias independientes e idénticamente distribuidas con distribución Bernoulli con parámetro \(p\), entonces la variable \(\sum_{i=1}^nY_i\) tiene distribución \(Bin(n,p)\). Por ende, la distribución Bernoulli es un caso particular de la distribución binomial cuando \(n=1\).


Prueba. La demostración radica en el hecho de que la función generadora de momentos caracteriza la distribución probabilística, entonces basta demostrar que la función generadora de momentos de \(\sum_{i=1}^nX_i\) es la de una distribución \(Bin(n,p)\). Tenemos lo siguiente:

\[\begin{align*} m_{\sum Y_i}(t)=E(e^{\sum tY_i})&=E(\prod_{i=1}^ne^{tY_i})\\ &=\prod_{i=1}^nE(e^{tY_i})\ \ \ \ (\text{por independencia})\\ &=\prod_{i=1}^n(pe^t+1-p)\ \ \ \ (\text{definición de $m_{Y_i}(t)$})\\ &=(pe^t+1-p)^n \end{align*}\]


Una aplicación de esta distribución es cuando tenemos un número \(n\) de repeticiones independientes de un experimento donde cada uno tiene dos posibles resultados que se podrían llamarse como éxito o fracaso y donde la probabilidad de éxito \(p\) es constante en cada una de las repeticiones. Por tanto, la variable número de éxitos obtenidos en las \(n\) repeticiones tiene distribución \(Bin(n,p)\). La distribución binomial tiene dos parámetros, \(n\) y \(p\); sin embargo, cuando \(n\) es conocido, la distribución dependerá sólo del valor \(p\) que sería el único parámetro con espacio paramétrico \(\Theta=(0,1)\).

Resultado 4.1 Si \(Y\) es una variable aleatoria con distribución binomial con parámetros \(n\) y \(p\), entonces

  • \(E(Y)=np\).
  • \(Var(Y)=np(1-p)\).
  • \(m_Y(t)=(pe^t+1-p)^n\).

A.1.5 Distribución Binomial negativa

Definición A.4 Una variable aleatoria \(Y\) tiene distribución Binomial negativa con parámetros \((\theta, r)\) si su función de densidad está dada por:

\[\begin{equation} P(y\mid \theta, r)=\frac{\Gamma(r+y_i)}{y_i!\Gamma(r)}\theta^r(1-\theta)^{1-y_i}I_{(0,1,2,\ldots)}(y) \end{equation}\]

Esta distribución siempre ha tenido lugar al resolver el problema del número de ensayos necesarios para lograr un número específico de éxitos. Por supuesto, si \(r\) es el número de éxitos necesarios y se conoce que la probabilidad de éxito es \(\theta\), entonces la distribución binomial negativa corresponde a un modelo probabilístico, afianzado durante siglos, que permite la resolución de este tipo de situaciones.

Por otro lado, es posible asignar al parámetro \(r\) valores que sean reales; en este caso no hay ninguna interpretación práctica en el contexto del número de ensayos necesarios para determinados éxitos. Sin embargo, en términos de distribución, \(r\) es un parámetro más. Esto nos lleva a uno de los verdaderos usos prácticos de esta distribución: la sobredispersión. Dado que la forma funcional de arriba corresponde a una generalización de la función de distribución Poisson, entonces es posible suponer que los datos de conteo vienen de una distribución binomial negativa.

Lo anterior trae ventajas puesto que, si la media de los datos recolectados no corresponde con la varianza (característica esencial de la Poisson), entonces cualquier modelo que de allí surgiese sería altamente cuestionable. Si lo anterior se presenta es mejor acudir a la distribución binomial negativa dando valores reales al parámetro \(r\).

Resultado 4.2 Si \(Y\) es una variable aleatoria con distribución binomial-negativa con parámetros \((\theta, r)\), entonces

  • \(E(Y)=\frac{r\theta}{1-\theta}\).
  • \(Var(Y)=\frac{r\theta}{(1-\theta)^2}\).
  • \(m_Y(t)=\left(\frac{1-\theta}{1-\theta e^t}\right)^r\).

A.1.6 Distribución de Poisson

La distribución de Poisson debe su nombre al francés Siméon-Denis Poisson (1781-1840) quien descubrió esta distribución en el año 1838, cuando la usó para describir el número de ocurrencias de algún evento durante un intervalo de tiempo de longitud dada.

Definición A.5 Una variable aleatoria \(Y\) tiene distribución de Poisson con parámetros \(\lambda>0\) si su función de densidad está dada por:

\[\begin{equation} f_Y(y)=\frac{e^{-\lambda}\lambda^y}{y!}I_{\{0,1,\cdots\}}(y) \end{equation}\]

y se nota como \(Y\sim P(\lambda)\).


Nótese que la distribución Poisson tiene solo un parámetro \(\theta=\lambda\), y el espacio paramétrico es \(\Theta=(0,\infty)\).

Resultado 4.3 Si \(Y\) es una variable aleatoria con distribución Poisson con parámetro \(\lambda\), entonces

  • \(E(Y)=\lambda\).
  • \(Var(Y)=\lambda\).
  • \(m_Y(t)=\exp\{\lambda(e^t-1)\}\).
Resultado A.4 Sea \(Y_1\), \(\cdots\), \(Y_n\) variables aleatorias independientes con distribución \(P(\lambda_i)\) para \(i=1,\cdots,n\), entonces la variable \(\sum_{i=1}^nX_i\) tiene distribución \(P(\sum_{i=1}^n\lambda_i)\).