You are on page 1of 10

Experimentos deterministas y experimentos aleatorios:

Se llaman experimentos deterministas a aquellos experimentos cuyo resultado es


perfectamente previsible.
En los experimentos aleatorios, no se puede predecir de antemano el resultado que
obtendremos cada vez que se repita. Pero siempre es posible prever una ley de comportamiento
de todos los resultados posibles y, en base a ella, calcular la probabilidad de obtener cada uno de
los mismos.
En los experimentos aleatorios, y slo en ellos, es posible hablar de probabilidad.


Definiciones de probabilidad:

Evento aleatorio: Es el resultado de un experimento aleatorio.
Clculo de probabilidades: Es una teora matemtica que nos permite asignar un nmero a la
ocurrencia de un evento a travs de la construccin de modelos que describen el comportamiento
de los experimentos aleatorios.

Existen tres teoras bien conocidas para medir la probabilidad: la clsica, la frecuencial y la
axiomtica.

Definicin de probabilidad segn la teora clsica:

La probabilidad de que ocurra un evento, se calcula como el cociente entre la cantidad de casos
favorables a dicho evento y el total de resultados igualmente posibles.
En smbolos:
n
m
E P = ) (

donde E= Evento; n= nmero de resultados posibles y m= nmero de resultados favorables (es
decir, cuando se presenta el evento E).

Definicin de probabilidad segn la teora frecuencial:
Esta teora expresa que si se repite un experimento aleatorio un nmero bastante grande de
veces, la probabilidad de un evento en particular puede asimilarse a la frecuencia relativa.

Definic in de probabilidad segn la teora axiomtica:
La probabilidad de un evento E en el experimento aleatorio A, es el valor numrico P(E) que
satisface los tres axiomas siguientes:

PRIMER AXIOMA: Si E es un evento, luego P(E) 0 ; para todo E

SEGUNDO AXIOMA: Si Z representa al conjunto de todos los resultados posibles de un
experimento aleatorio, luego P(Z)= 1

TERCER AXIOMA: P(A U B U... ) = P(A) + P(B) +...
si A, B,... es una sucesin finita o infinita de eventos excluyentes.
Los eventos mutuamente excluyentes son aquellos que no pueden presentarse conjuntamente.

De los tres axiomas enunciados se desprenden cuatro consecuencias importantes:

PRIMERA CONSECUENCIA: Un evento que no puede tener ningn resultado favorable dentro
del conjunto de resultados posibles de un experimento aleatorio se denomina EVENTO
IMPOSIBLE. Al utilizar la definicin clsica de probabilidad, se establece que la probabilidad de C
es 0. En smbolos: P( C ) = 0

SEGUNDA CONSECUENCIA: El evento que consiste de todos los resultados que no contiene el
evento E se denomina EVENTO COMPLEMENTO ( E ) de un evento E. Por definicin los eventos
E y E son mutuamente excluyentes.
Entonces: 1 ) ( ) ( ) ( ) ( = + = = E P E P E E P E o E P
luego, ) ( 1 ) ( E P E P =

TERCERA CONSECUENCIA: Considerando que P( C )= 0 y P(Z)= 1, se puede decir que la
probabilidad es un nmero que vara entre 0 y 1: 0 P(E) 1 cualquiera sea el evento E.

CUARTA CONSECUENCIA: A continuacin se ver que ocurre cuando se debe calcular la
probabilidad de eventos no mutuamente excluyentes.
Los eventos no mutuamente excluyentes son aquellos que tienen resultados en comn.
La probabilidad de A o B cuando tales eventos no son mutuamente excluyentes es:

P(A o B)= P(A U B)= P(A) + P(B) - P(A B)

Al calcular la probabilidad de la interseccin, es decir, la probabilidad de que A y B se
presenten conjuntamente, se pueden presentar dos situaciones diferentes:

1) Es la situacin que se plantea cuando simplemente se desea calcular la probabilidad de la
aparicin conjunta de dos eventos: P(A B) y los eventos son independientes. Los eventos A y B
son independientes, si la ocurrencia o no ocurrencia de A no afecta la probabilidad de ocurrencia
de B.

Entonces:
P(A y B)= P(A B)= P(A) . P(B)

es decir, "se multiplican las probabilidades de los sucesos individuales" (Ley de la Multiplicacin).

2) Es la situacin planteada cuando se desea calcular la probabilidad de la aparicin conjunta de
dos eventos: P(A B) y los eventos A y B son dependientes. Los eventos A y B son
dependientes, si la ocurrencia o no ocurrencia de A afecta la probabilidad de ocurrencia de B.
Entonces:
P(A y B)= P(A B)= P(A) . P(B/A)

donde P(B / A) es la probabilidad condicional de que ocurra B dado que ya ocurri A.


Variable aleatoria (x
i
):

Una variable aleatoria es aquella cuyos valores surgen asignando nmeros a los resultados de
un experimento aleatorio.


Distribuciones de probabilidad de variables aleatorias discretas:
As se denomina a las distribuciones de probabilidad correspondientes a variables aleatorias
discretas.
De la teora de la probabilidad, anteriormente expuesta, se desprende que nicamente se pueden
asignar probabilidades a los resultados de un experimento aleatorio que se denominan eventos.

Funcin de probabilidad [p(x
i
)]: es aquella que surge al asignar probabilidades a cada uno de
los valores de una variable aleatoria. Se puede considerar como una distribucin de frecuencias
relativas.

Funcin de distribucin de probabilidad [F(x
i
)]: esta funcin acumula probabilidades de una
manera similar a la distribucin de frecuencias acumuladas.

Esperanza matemtica: correspondera a la media aritmtica en una distribucin de frecuencias.
En este caso, la esperanza matemtica calcula el valor esperado promedio de una variable
aleatoria, el cual est en funcin de la probabilidad asignada a cada uno de los valores que toma
dicha variable.
Se calcula como la suma de cada valor que toma la variable multiplicado por su respectiva
probabilidad. En smbolos:

=
- =
n
i
i i
x p x x E
1
) ( ) (


Varianza: Se define como la suma de los desvos de cada valor que toma la variable aleatoria con
respecto a la esperanza matemtica, elevados al cuadrado y multiplicados por su respectiva
probabilidad.

En smbolos:
| |

=
- =
n
i
i i
x p x E x x V
1
2
) ( ) ( ) (

Tambin se puede calcular la desviacin estndar como la raz cuadrada de la varianza.

Las distribuciones de probabilidad de variables aleatorias discretas ms conocidas en estadstica
son la distribucin Bernoulli, la distribucin Binomial, la distribucin Hipergeomtrica y la
distribucin de Poisson.


Distribucin Bernoulli:

Se utiliza para el caso ms sencillo en el que la variable aleatoria es dicotmica, es decir que
puede tomar slo dos valores. Estos dos nicos valores son el 0 y el 1.

* Variable Bernoulli: Es una variable aleatoria X que toma solamente los valores 0 y 1.
Una variable bipuntual surge de un experimento llamado Bernoulli. Este experimento consiste en
observar una sola unidad experimental y clasificarla en una de dos categoras mutuamente
excluyentes y exhaustivas,



Se supone un experimento, que tiene slo dos nicos resultados posibles que sern:

Z = (z
1
, z
2
)

Para cuantificar estos dos resultados posibles y definir una variable aleatoria, se puede asignar el
valor 1 al resultado Z
1
y el valor 0 al resultado Z
2
.
Se simboliza la probabilidad del resultado Z
1
con la letra p y se la denomina probabilidad de xito.
Se simbolizan los dos eventos considerados y su correspondiente probabilidad:

z
1
z
2


P(z
1
) = p
P(z
2
) = 1 p = q
P(z
1
o z
2
) = P(z
1
U z
2
) = P(z
1
) + P(z
2
) = p + (1 - p)

De manera ms general, la funcin puede expresarse por medio de una frmula matemtica:

P (X=x) = p
x
. (1 p)
1-x
para x que slo toma los valores 0 o 1


* Esperanza matemtica: Para el clculo de la esperanza matemtica de una variable aleatoria
Bernoulli debe recordarse que la esperanza matemtica de una variable aleatoria discreta es:

=
- =
1
0
) ( ) (
i
i i
x p x x E

Reemplazando p(x
i
) por la frmula que define a una variable con distribucin Bernoulli:
p(X = x) = p
x
i
. (1 p)
1-x
i



Entonces:

- - =
1
0 i
Xi 1
i i
p 1 x p x x E ) ( ) ( ) (

la esperanza matemtica de una variable aleatoria Bernoulli es p.

* Varianza: La varianza de una variable aleatoria Bernoulli se calcular a travs de

| |

=
- =
1
0
2
) ( ) ( ) (
i
i i
x p x E x x V

la varianza de una variable aleatoria con distribucin Bernoulli es (p.q).

* Desviacin estndar: La desviacin estndar de una variable con distribucin Bernoulli es la
raz cuadrada de (p.q).

q p x S - = ) (


Distribucin Binomial.

En general, una distribucin Binomial se presenta cuando la variable aleatoria de inters se define
como "la cantidad de veces que se presenta uno de los dos resultados posibles, generalmente
denominado xito" y cuando el experimento presenta las caractersticas que se enuncian a
continuacin:

a) Se repite varias veces un experimento del tipo Bernoulli siendo sus resultados independientes.
b) En cada prueba, el resultado puede clasificarse en una de dos categoras mutuamente
excluyentes que denominamos "xito" o "fracaso".
c) La probabilidad p de xito en cada prueba, se mantiene constante.
d) El experimento se realiza un nmero n de veces predeterminado.

* Variable binomial: Una variable con distribucin binomial se define como la cantidad de veces
que se presenta uno de los dos resultados posibles, generalmente denominado xito, en una serie
finita de repeticiones de experimentos del tipo Bernoulli.

* Funcin de probabilidad: En forma general se expresa como:

P (X=x) = C
x
n
. p
x
. q
n - x

* Esperanza matemtica: Como ya se dijo la variable binomial surge de la repeticin de
experimentos Bernoulli; por eso, la esperanza matemtica se calcula sumando n veces la
esperanza matemtica de la variable bipuntual que es igual a p, o sea:

E(x) = (p+p+...+p) = n . p

la esperanza matemtica de una variable con distribucin binomial es (n.p).

* Varianza: Teniendo en cuenta lo mismo que para la esperanza matemtica, la varianza de una
variable con distribucin binomial es (n.p.q).

V(x) = n . p . q

* Desviacin estndar: la desviacin estndar de una variable con distribucin binomial es la raz
cuadrada de (n.p.q).

q p n x S - - = ) (


Debido a la complejidad matemtica para calcular probabilidades binomiales, existen tablas donde
se pueden encontrar estas probabilidades ya calculadas. En el apndice, se brinda un extracto de
las distintas tablas estadsticas.


Distribucin Hipergeomtrica.

Es una distribucin ntimamente relacionada con la distribucin binomial. La situacin
experimental en la que se define una variable hipergeomtrica tambin presume la extraccin de
elementos de una determinada poblacin a los que podemos clasificar en una de dos categoras
mutuamente excluyentes y exhaustivas denominadas xito y fracaso.

A diferencia de la distribucin binomial, la muestra se efecta sin reemplazo. Pero cuando la
muestra es muy pequea en relacin al tamao de la poblacin de la que proviene, se debe
considerar que se est en presencia de un esquema binomial.

* Variable hipergeomtrica: Una variable aleatoria con distribucin hipergeomtrica se define
como la cantidad de individuos que pertenecen a una categora, extrada de una poblacin
dicotmica por medio de un muestreo sin reemplazo.



Distribucin de Poisson.

Cuando se est ante muestras de tamao bastante mayor y si, adems, la probabilidad de que
ocurra lo que se ha denominado un xito es pequea, en lugar de calcular probabilidades por
medio de la distribucin binomial, se utiliza una nueva distribucin de variables aleatorias discretas
conocida como distribucin de Poisson.


Distribuciones de probabilidad de variables aleatorias continuas.

Las distribuciones de probabilidad correspondientes a variables aleatorias continuas se
denominan distribuciones de probabilidad de variables aleatorias continuas.

* Funcin de densidad [f(x)]: Para calcular probabilidades asociadas con sectores o intervalos es
conveniente usar una expresin en x o una funcin no negativa de x, representada por f(x) y que
se conoce con el nombre de funcin de densidad de probabilidad.

En el caso de variables aleatorias continuas, la probabilidad se define para un intervalo que
podemos simbolizar como:

( )
}
- = s s
b
a
dx x f b x a P ) (


y esta probabilidad se convierte en un rea o superficie bajo la curva f(x).



* Funcin de probabilidad [F(x)]: Trabajando con variables aleatorias continuas tambin se
puede calcular una funcin de distribucin que acumula probabilidades. La funcin de distribucin
ser simbolizada con F(x) y se define como:

F (x) = P (X s x)

La funcin de distribucin es siempre no decreciente: crece o, a lo sumo, se mantiene constante.
Si se supone que a y b son dos observaciones de X tales que a < b, se puede demostrar que

P (a s x s b) = P (X s b) - P (X s a ) = F (b) - F (a)
b a
f(x)
X




* Esperanza matemtica:

}
- - = dx x f x x E ) ( ) ( - < x <

* Varianza:

| |
}
- - = dx x f x E x x V ) ( ) ( ) (
2
0 < x <


Distribucin normal.

Es la distribucin de probabilidad ms importante de la teora estadstica.
Si suponemos que la distribucin de frecuencias de una variable x, surgida de una muestra de
tamao n, se caracteriza por tener una mxima concentracin de observaciones (moda) en la
parte central de la distribucin, tendremos como resultado un histograma como el que se muestra
abajo.

Supongamos, ahora, que el tamao de la muestra es aumentado sin lmite (n tiende a infinito),
mientras que el ancho de los intervalos en el eje horizontal es disminuido correspondientemente.
Los peldaos del histograma pronto se haran tan pequeos que el total asumira la forma de una
curva continua.



Esta curva, obtenida empricamente, se asemeja a una curva terica unimodal y perfectamente
simtrica que caracteriza a una distribucin de probabilidad conocida como distribucin normal,
Gaussiana o de Laplace, o tambin llamada campana de Gauss.
X
f
j
b
f(b)
X
a
f(a)
X

La distribucin normal presenta un valor de mxima frecuencia n, a partir del cual, decae hacia
ambos lados con una simetra perfecta. Esta simetra hace que a valores situados a igual distancia
del valor modal por izquierda y por derecha de la distribucin, les corresponda la misma
probabilidad.

La representacin grfica de esta distribucin es la siguiente:



La funcin de densidad de probabilidad que corresponde a esta curva est dada por la siguiente
expresin:

( )
2
2
2
1
2
1
) (
o
o
u x
e x f

-
-
H - -
=

siendo y o los dos parmetros que caracterizan a una distribucin normal donde:
= media aritmtica o esperanza
o = desviacin estndar
adems, t = 3,1416 y e = 2,71828 son dos constantes muy utilizadas en matemtica.

Por ser la distribucin perfectamente simtrica, la media coincide con la mediana y la moda. Se
encuentra en el punto del eje de abscisas que divide a la distribucin en dos partes iguales y, a su
vez, registra el valor de la variable de mayor frecuencia.

La desviacin estndar o, medida de variabilidad de la distribucin, determina la mayor o menor
dispersin de los datos alrededor de . Cuando o crece, la curva se achata y cuando o disminuye,
la curva se agudiza.

Como ya se dijo anteriormente, al tratar las curvas de distribucin de densidad de probabilidad, el
rea total bajo la curva normal es tambin igual a 1.

En smbolos:
P(- < x < ) = 1

A su vez, al ser la curva simtrica con respecto a , el 50 % de las observaciones se encuentran
por debajo de la media y el 50 % por encima de ella. O sea:

P(- < x < ) = 0,50 y P( < x < ) = 0,50

La distribucin normal es una distribucin terica, ideal, que cumple con ciertas propiedades, las
que surgen de la aplicacin de la frmula matemtica que expresa su funcin de densidad de
probabilidad.

Estas propiedades son:
- En el intervalo ( - o; + o) se encuentra el 68,2 % de las observaciones, o lo que es lo mismo:

f(x)
X
P( - o < x < + o) = 0,682

- En el intervalo ( - 2o; + 2o) se encuentra el 95,4 % de las observaciones, o lo que es lo
mismo:
P( - 2o < x < + 2o) = 0,954

- En el intervalo ( - 3o; + 3o) se encuentra el 99,8 % de las observaciones, o lo que es lo
mismo:
P( - 3o < x < + 3o) = 0,998




Ahora bien, considerando los distintos valores que pueden tomar los parmetros de la distribucin
normal, los correspondientes campos de variacin son:

- < < y 0 < o <

de donde se deduce que existen infinitas curvas normales distintas, que surgen al variar los
valores y o en cada situacin experimental particular.
Para calcular probabilidades de la distribucin normal se debera aplicar la operacin integral a la
funcin de densidad, reemplazando los parmetros y o por los valores de alguna combinacin
en particular. Pero teniendo en cuenta la expresin matemtica que caracteriza a la funcin de
densidad de una variable normalmente distribuida, se puede apreciar que calcular probabilidades
en base a ella, es un procedimiento muy complicado y prcticamente imposible de efectuar
manualmente.
Como no existe una sola distribucin normal sino toda una familia de infinitas distribuciones
normales, cada una correspondiente a una cierta combinacin de y o, fue necesario seleccionar
una de todas estas combinaciones para que las representara.
Esta distribucin particular se conoce con el nombre de distribucin normal estandarizada y es la
que corresponde a la combinacin de los parmetros = 0 y o = 1.

Las probabilidades asociadas a esta distribucin normal particular, ya se encuentran tabuladas.

* Distribucin normal estandarizada: Una distribucin normal se denomina estandarizada si su
media es 0 y su varianza y desviacin estndar son iguales a 1. Para obtener una variable normal
estandarizada se debe realizar una transformacin de la variable normal original X. Esta
transformacin da como resultado una nueva variable que llamaremos Z y que surge al restar a la
variable X original, su media y dividirla por su desviacin estndar o:

Xi
+o +2o +3o -o -2o -3o
68,2 %
95,4 %
99,8 %
o

=
X
z

y su correspondiente funcin de densidad de probabilidad es:

H -
=

2
) (
2
2
z
e
z f

La funcin de distribucin de probabilidad de Z es:

}
- -
H -
= = s

dz e z F z Z P
z
2
0 0
2
2
1
) ( ) (

Al trabajar con una variable normal estandarizada tambin se cumple que:

P(-1 < z < 1) = 0,682
P(-2 < z < 2) = 0,954
P(-3 < z < 3) = 0,998

You might also like