Sucesos dependientes e independientes

RESUMEN. Definimos los conceptos de sucesos dependientes e independiente

  1. Definición. Para dos sucesos $A$ y $B$ en un mismo espacio de probabilidad, en general ocurre $p(B|A)\ne p(B)$ y decimos en tal caso que $B$ depende de $A.$ Si ocurre $p(B|A)= p(B)$ decimos que $B$ es independiente de $A.$
  2. Teorema. La relación $A$ es independiente de $B$ es una relación simétrica entre los pares de sucesos con probabilidades no nulas y la independencia de los sucesos $A$ y $B$ equivale a $p(A\cap B)=p(A)p(B).$
    Demostración. Tenemos las equivalencias $$B \text{ es independiente de } A \Leftrightarrow p(B|A)= p(B)\Leftrightarrow \frac{p(A\cap B)}{p(A)}=p(B)$$ $$\Leftrightarrow p(A\cap B)=p(A)p(B) \Leftrightarrow \dfrac{p(A\cap B)}{p(B)}=p(A)$$ $$\Leftrightarrow p(A|B)=p(A)\Leftrightarrow A \text{ es independiente de } B.$$
  3. Ejercicio. Sean $A,B,C$ tres sucesos en un mismo espacio de probabilidad. Se dice que son mutuamente independientes si se verifican las condiciones $$p(A\cap B)=p(A)p(B),\;\;p(A\cap C)=p(A)p(C),\;\;p(B\cap C)=p(B)p(C),$$ $$p(A\cap B\cap C)=p(A)p(B)p(C).$$ Demostrar que en general la cuarta condición no es deducible de las tres primeras.
    Solución. Consideremos el suceso lanzar dos dados, uno blanco y uno azul. Sean los sucesos $$\begin{aligned}
    & A:\text{ obtener impar en el dado planco.}
    \\& B:\text{ obtener impar en el dado azul.}\\
    & C:\text{ obtener suma par.}
    \end{aligned}$$ Usando la regla de Laplace obtenemos $$p(A)=\frac{3\cdot 6}{6^2}=\frac{1}{2},\;\; p(B)=\frac{3\cdot 6}{6^2}=\frac{1}{2},\;\;p(C)=\frac{3\cdot 3+3\cdot 3}{6^2}=\frac{1}{2}.$$ Análogamente $$ p(A\cap B)=\frac{3\cdot 3}{6^2}=\frac{1}{4},\; p(A\cap C)=\frac{3\cdot 3}{6^2}=\frac{1}{4},\; p(B\cap C)=\frac{3\cdot 3}{6^2}=\frac{1}{4}.$$ Es deir, se verifican las tres primeras condiciones, sin embargo $$ p(A\cap B\cap C)=\frac{3\cdot 3}{6^2}=\frac{1}{4} \ne \frac{1}{8}=p(A)p(B)p(C),$$ es decir, no se cumple la cuarta.
  4. Ejercicio. Sean $(E_1, \mathcal P(E_1),p_1)$ y $(E_2, \mathcal P(E_2),p_2)$ dos espacios finitos de probabilidad con $$E_1=\{a_1,\ldots,a_n\},\;\;E_2=\{b_1,\ldots,b_m\}.$$ Demostrar que $(E_1\times E_2, \mathcal P(E_1\times E_2),p)$ es un espacio de probabilidad definiendo $$p(a_i,b_j)=p_1(a_i)p_2(b_j)\text{ para todo }1\le i\le n,\;1\le j \le m.$$
    Solución. Claramente $\mathcal P(E_1\times E_2)$ es una $\sigma-$álgebra en $E_1\times E_2$ por serlo las partes de cualquier conjunto. Al ser $E_1\times E_2$ finito basta demostrar que las probabilidades $p(a_i,b_j)$ de los sucesos simples son mayores o iguales que cero y que suman $1.$ En efecto, $p(a_i,b_j)=p_1(a_i)p_2(b_j)\ge 0$ pues $p_1(a_i)\ge 0$ y $p_2(b_j)\ge 0$ al ser $p_1$ y $p_2$ probabilidades. Por otra parte y también por ser $p_1$ y $p_2$ probabilidades se verifica $\sum_{1\le i\le n}p_1(a_i)=1$ y $\sum_{1\le j\le m}p_2(b_j)=1$ con lo cual $$ \sum_{1\le i\le n,\;1\le j\le m} p(a_i,b_j)=\sum_{1\le i\le n,\;1\le j\le m}p_1(a_i)p_2(b_j)=\sum_{1\le i\le n}p_1(a_i)\sum_{1\le j\le m}p_2(b_j)$$ $$=\sum_{1\le i\le n}p_1(a_i)\cdot 1=\sum_{1\le i\le n}p_1(a_i)=1.$$ Nota. Este modelo es por supuesto adecuado cuando los experimentos se consideran físicamente independientes. En caso de que se consideren físicamente dependientes se aplicaría $p(a_i,b_j)=p_1(a_i)p_2(b_j | a_i).$
Esta entrada ha sido publicada en Miscelánea matemática y etiquetada como , , . Guarda el enlace permanente.