Probabilidad

Existen diferentes interpretaciones de probabilidad, las más comunes son:

Definición: Dado un experimento $E$ y el espacio de muestreo $S$ respectivo, a cada evento $A$ le asociamos un número real $P(A)$, el cual es la probabilidad de $A$ y satisface las siguientes propiedades:

  1. $0 \leq P(A) \leq 1$
  2. $P(S)=1$
  3. $P(A \cup B) = P(A) + P(B)$, si $A$ y $B$ mutuamente exclusivos

Teorema 1: $P(\emptyset) = 0$

Teorema 2: $P(\overline{A}) = 1 - P(A)$

Teorema 3: $P(A \cup B) = P(A) + P(B) - P(A \cap B)$

Probabilidad Condicional

Si $A$ y $B$ son dos eventos en $S$, la probabilidad de que ocurra $A$ dado que ocurrió el evento $B$ es la probabilidad condicional de $A$ dado $B$, y se denota $P(A\mid B)$.

La probabilidad condicional por definición es: $P(A \mid B) = P(A \cap B) / P(B)$, dado $P(B) > 0$

Ejemplo: Para un dado, si sé que cayó impar, cuál es la probabilidad de 3?

Similarmente: $P(B \mid A) = P(A \cap B) / P(A)$

De donde: $P(B \mid A) = P(B) P(A \mid B) / P(A)$

Esta expresión se conoce como el Teorema de Bayes, que en su forma más general es:

$P(B_{j}\mid A_{i})=P(B_{j})P(A_{i}\mid B_{j})/\sum_{j}P(A_{i}\mid
B_{j})P(B_{j})$

El denominador se le conoce como el teorema de la probabilidad total.

Teorema 4: Si $B_{1},B_{2}, \ldots,B_{k}$ representan una partición (exclusivos, exhaustivos y mayores a cero) de $S$, y $A$ es un evento respecto a $S$, entonces la probabilidad de $A$ la podemos escribir como:

$P(A) = \sum_{j} P(A \mid B_{j}) P(B_{j})$

Eventos independientes

Dos eventos, $A$ y $B$, son independientes si la ocurrencia de uno no tiene que ver con la ocurrencia de otro.

Por definición, $A$ es independiente de $B$ si y sólo si: $P(A \cap B) = P(A) P(B)$

Esto implica que: $P(A \mid B) = P(A)$ y que $P(B \mid A) = P(B)$

Independientes es diferente a mutuamente exclusivos.

Independencia condicional

Un evento $A$ es condicionalmente independiente de otro $B$ dado un tercer evento $C$, si el conocer $C$ hace que $A$ y $B$ sean independientes. Es decir, si conozco $C$, $B$ no tiene influencia en $A$. Esto es: $P(A \mid B, C) = P(A \mid C)$

Ejemplo:

De la definicíon de probabilidad condicional, podemos obtener una expresíon para evaluar la probabilidad conjunta de $N$ eventos:

\begin{displaymath}P(A_{1}, A_{2}, ..., A_{n}) = P(A_{1} \mid A_{2}, ..., A_{n})
P(A_{2} \mid A_{3}, ..., A_{n}) \cdots P(A_{n})\end{displaymath}

Variables Aleatorias

Si a cada posible evento $A$ le asignamos un valor numérico real, $X(A)$, obtenemos una variable aleatoria. A cada valor de la variable le corresponde una probabilidad, $P(X=k)$.

Las variables aleatorias pueden ser de dos tipos: discretas y continuas. Nosotros nos enfocaremos a variables discretas.

Ejemplos de variables aleatorias discretas: lanzar una moneda, lanzar un dado, número de fallas antes de darle al blanco.

Función acumulativa de probabilidad

Para una variable aleatoria $X$, se define la función acumulativa de probabilidad como la probabilidad de que la variable aleatoria sea menor a un valor $x$:

$F(x) = P\{X \leq x\}$

Es decir, corresponde a la sumatoria de la función de probabilidad de $-\infty$ a $x$:

$F(x) = \sum_{- \infty}^{x} p(X)$

Propiedades:

  1. $0 \leq F(x) \leq 1$
  2. $F(x1) \leq F(x2)$ , si $x1 \leq x2$ (función siempre creciente)
  3. $F(-\infty) = 0$
  4. $F(+\infty) = 1$

Estadísticas de una variable aleatoria

Valores característicos de una variable aleatoria:

Momentos

Momentos ``centrales''

Variables Aleatorias de 2-Dimensiones

Definición: Dado un experimento $E$ con espacio de muestreo $S$. Si $X$ y $Y$ son dos funciones que le asignan números reales a cada resultado posible, entonces $(X,Y)$ es una variable aleatoria bidimensional.

Dadas dos variables aleatorias (discretas), $X, Y$, deben satisfacer lo siguiente:

  1. $P(x_{i},y_{j}) \geq 0$
  2. $\sum_{i} \sum_{j} P(x_{i},y_{j}) = 1$

Ejemplos: número de artículos terminados en dos líneas de producción, número de pacientes con cancer y número de fumadores, etc.

Probabilidad marginal

Es la probabilidad particular de una de las variables dada un variable aleatoria bidimensional, y se define como:

$P(X) = \sum_{y} P(x_{i}, y_{j})$

Probabilidad condicional

Dada la probabilidad conjunta y marginal, la probabilidad condicional se define como:

$P(X \mid Y) = P(X,Y) / P(Y)$

Variables independientes

Dos variables aleatorias son independientes si su probabilidad conjunta es igual al producto de las marginales, esto es:

$P(x_{i}, y_{j}) = P(x_{i}) P(y_{j})$, $\forall (i.j)$

Correlación

El coeficiente de correlación ($\rho $) denota el grado de linearidad entre dos variables aleatorias y se define como:

$\rho_{xy} = E\{ [X - E\{X\}] [Y - E\{Y\}] \} / \sigma_{x} \sigma_{y}$

La correlación está dentro del intervalo: $\rho \in [-1,1]$, donde un valor de 0 indica no-correlacionadas, y un valor de -1 ó 1 indica una relación lineal.

Distribución Binomial

Una distribución binomial de la probabilidad de observar $r$ eventos (e.g., soles) de $n$ muestras independientes con dos posibles resultados (e.g., tirar monedas).


\begin{displaymath}P(r) = \frac{n!}{r! (n-r)!} p^r (1-p)^{(n-r)} \end{displaymath}

El valor esperado es: $E\{x\} = np$

La varianza es: $Var(x) = np(1 - p)$

La desviación estandar es: $\sigma_x = \sqrt{np(1 - p)}$

Si $n$ es grande, se aproxima a una distribución Normal

Distribución Normal o Gaussiana


\begin{displaymath}p(x) = \frac{1}{\sqrt{2 \pi \sigma^2}} e^{- \frac{1}{2} (\frac{x -
\mu}{\sigma})^2} \end{displaymath}

El valor esperado es: $E\{x\} = \mu$

La varianza es: $Var(x) = \sigma^2$

La desviación estandar es: $\sigma_x = \sigma$

El Teorema Central del Límite dice que la suma de un número grande de variables aleatorias independientes identicamente distribuidas siguen una distribución Normal.

emorales 2012-01-23