Professional Documents
Culture Documents
Ejemplo:
Vamos a motivar la definición de variable aleatoria discreta mediante un ejemplo sencillo.
Consideramos la variable X=“Resultado obtenido al lanzar un dado equilibrado con seis caras”.
Los valores posibles de esta variable son 1, 2, ... , 6. Si lanzamos el dado 60 veces, las frecuencias
absolutas de cada valor pueden ser, por ejemplo, 8, 11, 14, 7, 11 y 9 y, por tanto, las frecuencias
relativas, en este caso, serıan. ( 8/60 11/60 14/60 7/60 11/60 9/60 )
Si a continuación volvemos a lanzar el mismo dado otras 60 veces, en las mismas condiciones,
las frecuencias relativas serıan parecidas, pero difícilmente iguales. Eso sı, en general, dichas
frecuencias relativas serıan seguramente bastante parecidas a 1/6, y serıan seguramente más
parecidas a 1/6 cuanto más aumentemos el número de lanzamientos.
1
DIST. DE PROBABILIDAD PARA UNA VARIABLE ALEATORIO DISCRETA
(VAD).
Una distribución de probabilidades para una variable aleatoria discreta es un listado mutuamente
excluyente de todos los resultados numéricos posibles para esa variable aleatoria tal que
una probabilidad específica de ocurrencia se asocia con cada resultado. El valor esperado de una variable
aleatoria discreta es un promedio ponderado de todos los posibles resultados, donde las ponderaciones
son las probabilidades asociadas con cada uno de los resultados.
Se dice que hemos definido una variable aleatoria para un experimento aleatorio cuando hemos
asociado un valor numérico a cada resultado del experimento. Para designar a las variables aleatorias,
se utilizan letras mayúsculas X, Y, ..., y las respectivas minúsculas (x, y, ...) para designar valores
concretos de las mismas. Existen varios tipos de V.A.: variables cualitativas o atributos por un lado y
variables cuantitativas por otro. Dentro de estas últimas podemos diferenciar entre cuantitativas
continuas y cuantitativas discretas. Una variable aleatoria es discreta cuando sólo puede tomar unos
ciertos valores enteros en un número finito de valores o infinito numerable. Por ejemplo, número de
caras obtenidas al lanzar tres monedas: 0, 1, 2, 3. Las variables discretas representan algo que podemos
contar, y no suelen llevar decimales.
2
VALOR MONETARIO ESPERADO.
Se puede tener un estimado de los beneficios o costos de una actividad, proyecto o evento riesgoso si se
multiplica su probabilidad de ocurrencia (po) por su impacto (i). Otra forma de entenderlo es como la
prima que se debe pagar a una aseguradora contra un evento que tiene una probabilidad de ocurrencia.
Valor monetario esperado (EMV) es una cifra aproximada que muestra la cantidad de dinero que el
demandante puede razonablemente esperar en la mediación. Piense en ello como un promedio de los
escenarios mejor y el peor de los casos. Representa no sólo para la figura dólar asignado a cada resultado
sino también por la probabilidad de que el resultado que se produzcan. Para calcular EMV, multiplique
el valor en dólares de cada resultado posible por azar de cada resultado de ocurrir (porcentaje), y el total
de los resultados.
LA DISTRIBUCIÓN BINOMIAL.
3
CARACTERÍSTICAS (FORMA, MADIA, DESV. EST.), USO DE TABLAS.
¿Cómo utilizar la tabla de la distribución Binomial? Supongamos que lanzamos al aire una moneda
trucada. Con esta moneda la probabilidad de obtener cara es del 30%. La probabilidad que salga cruz
será, pues, del 70%. Lanzamos la moneda 10 veces de manera consecutiva. Si queremos calcular la
probabilidad de que observemos 6 caras o menos nos fijamos en la tabla: localizamos n=10, x=6, p=0.3 y
buscamos la intersección: 0.9894 P N X 0,05 0,1 0,15 0,2 0,25 0,3
Media
Varianza
Desviación típica
La Distribución Binomial esta relacionada con al distribución de Bernoulli que es una distribución de
variable aleatoria X que toma solamente valores de cero y uno (éxito y fracaso), cuando se realiza un solo
experimento. La distribución binomial se aplica cuando se realizan un número "n" de veces el experimento
de Bernouilli, siendo cada ensayo independiente del anterior. La variable puede tomar valores entre 0 (si
todos los experimentos han sido fracaso) y n (si todos los experimentos han sido éxitos)
Para este tipo de distribución de probabilidad, la función matemática es la siguiente:
SU FORMA
Simétrica: Cuando p=0.5 sin tomar en cuenta que tan grande o pequeño sea el valor de "n"
Sesgada: Cuando p≠0.5. Cuanto más cerca se encuentre "p" de 0.5 y mayor sea el número de
observaciones "n", menos sesgada será la distribución, por otra parte, con una "p" pequeña la
distribución tendrá un gran sesgo a la derecha y para una "p" muy grande la distribución tendría
un gran sesgo a la izquierda.
4
TABLA
La tabla proporciona, para diversas combinaciones de n y p, las probabilidades de que la variable aleatoria
binomial tome valores x = 0, 1, 2, ..., n. Tiene en la primera fila los valores de "p"; en la primera columna
los valores de "n" y en la segunda columna los valores de x, pero están representados en ella por una k Sí
se quiere tener el resultado de la probabilidad se combinan los valores de n y p y dentro de ellos se busca
el valor de x que se necesita.
5
DISTRIBUCION HIPERGEOMETRICA
INTRODUCCIÓN, FUNCIÓN DE PROBABILIDAD (MODELO MATEMÁTICO)
En teoría de la probabilidad, una función de probabilidad (también denominada función de masa de
probabilidad) es una función que asocia a cada punto de su espacio muestral X la probabilidad de que
ésta lo asuma.
La gráfica de una función de probabilidad de masa, note que todos los valores no son negativos, y la suma
de ellos es igual a 1.
La función de masa de probablilidad de un Dado. Todos los números tienen la misma probabilidad de
aparecer cuando este es tirado, en concreto, si el espacio muestral, E de la variable aleatoria X consta de
los puntos x1, x2, ..., xk, la función de probabilidad P asociada a X es donde pi es la probabilidad del
suceso X = xi.
Por definición de probabilidad, hay que advertir que el concepto de función de probabilidad solo
tiene sentido para variables aleatorias que toman un conjunto discreto de valores. Para variables
aleatorias continuas el concepto análogo es el de función de densidad.
Por ejemplo, usted recibe un envío de pedido especial de 500 etiquetas. Supongamos que el
2% de las etiquetas tiene defectos. El conteo de eventos en la población es de 10 (.02 * 500).
Usted toma una muestra de 40 etiquetas y desea determinar la probabilidad de que haya 3 o
más etiquetas defectuosas en esa muestra.
6
La probabilidad de que haya 3 o más etiquetas
defectuosas en la muestra es de 0.0384.
PROBABILIDADES HIPERGEOMÉTRICAS
Supongamos que hay diez automóviles que le gustaría someter a una prueba de conducción (N = 10), y
cinco de ellos tienen motores turbo (x = 5). Si prueba tres de los vehículos (n = 3), ¿cuál es la probabilidad
de que dos de los tres que probará tengan motores turbo?
LA DISTRIBUCION DE POISSON.
INTRODUCCIÓN, FUNCIÓN DE PROBABILIDAD (MODELO MATEMÁTICO)
Esta distribución es una de las más importantes distribuciones de variable discreta. Sus principales
aplicaciones hacen referencia a la modelización de situaciones en las que nos interesa determinar el
número de hechos de cierto tipo que se pueden producir en un intervalo de tiempo o de espacio, bajo
presupuestos de aleatoriedad y ciertas circunstancias restrictivas. Otro de sus usos frecuentes es la
consideración límite de procesos dicotómicos reiterados un gran número de veces si la probabilidad de
obtener un éxito es muy pequeña.
7
FUNCIÓN GENERATRIZ DE MOMENTOS:
Su expresión será:
dado
que tendremos que
luego :
Así.
8
Una vez obtenida la media, obtendríamos la varianza en base
Ejemplos
Resultado de un generador de números aleatorios entre 0 y 1. Es el ejemplo más
sencillo que podemos considerar, es un caso particular de una familia de variables
aleatorias que tienen una distribución uniforme en un intervalo [a, b]. Se corresponde
con la elección al azar de cualquier valor entre a y b.
9
Estatura de una persona elegida al azar en una población. El valor que se obtenga será
una medición en cualquier unidad de longitud (m, cm, etc.) dentro de unos límites
condicionados por la naturaleza de la variable. El resultado es impredecible con
antelación, pero existen intervalos de valores más probables que otros debido a la
distribución de alturas en la población. Más adelante veremos que, generalmente,
variables biométricas como la altura se adaptan un modelo de distribución
denominado distribución Normal y representada por una campana de Gauss.
ANTECEDENTES
La distribución normal se conoce como la curva de Gauss o campana de Gauss, famoso matemático
alemán del siglo 19.
Realmente, fue un trabajo de más de 200 años para descubrirla y establecer su ecuación. En este post,
explico la historia de la distribución más conocida de la estadística: la ley normal.
Su origen viene de la observación de un estadístico francés del siglo 18, Abraham de Moivre, que, entre
otras cosas, actuaba como consultor para temas de juegos. Observó, que al lanzar una moneda, la
probabilidad de obtener “cara” (o “cruz”) en N tirada tenía una representación gráfica con una curva suave
a medida que N se hacía grande. En el gráfico presentado a continuación, la altura de cada barra
representa la probabilidad de que ocurra el evento (sale “cara” al lanzar una moneda) de N veces que
lanzamos la moneda (hemos cogido, N=2; N=4; N=12). Si la moneda no está trucada, la probabilidad de
que salga “cara” al lanzarla es del 50% (p=0,5). Este fenómeno sigue una distribución conocida como
la Binomial.
10
La gracia reside en que esta peculiar forma de campana también se detectó, en el siglo 17, por Galileo en
el análisis de errores de mediciónde observaciones astronómicas; errores atribuibles a la instrumentación
y a los observadores. Notó que estos errores eran simétricos y que los pequeños errores eran más
frecuentes que los errores grandes. De ahí, se plantearon varias hipótesis sobre la distribución de los
errores de medición, fue solo a principio del siglo 19th que se descubrió que estos errores seguían
una distribución normal. Dos matemáticos establecieron de manera independiente su fórmula: Adrian
en 1808 y Gauss en 1809 que al final dio su nombre a la más famosa de las distribuciones estadísticas ya
que numerosos fenómenos naturales se ajustan a ella y que presenta unas propiedades sumamente
interesantes.
CARACTERÍSTICAS
Las principales características de esta distribución son:
1. y queda perfectamente
determinada por ellos. Debido a esto es que la notación abreviada que se usa para representar la
2. La moda (el valor más frecuente), la mediana (el valor central) y la media tienen el mismo valor.
3. El área total bajo la curva y el eje de las x es la unidad.
4. La curva tiene forma de campana, por lo que se le llama curva acampanada o campana de Gauss
5. La distribución es simétrica respecto a la media, es decir, el 50% del área está a la izquierda de la
media y el otro 50% a la derecha.
6. El punto de inflexión de la curva (el punto donde la curva deja de ser cóncava hacia abajo y
y
- y, e invariablemente la tangente en este punto de inflexión corta al eje de
las x y-
7. La curva se extiende en ambas direcciones y tiende gradualmente a unirse al eje de las x (se hace
asintótica al eje de las x), por lo que solamente se juntan en menos infinito (-
y-
CURVA NORMAL
curva se conoce como campana de Gauss y es el gráfico de una función gaussiana, una variable
aleatoria continua, X, definida en [- , ] seguirá una distribución normal de parámetros y , ( X N( ; ) )
, si su función de densidad es :
para x [- , ]
11
AREAS BAJO LA CURVA NORMAL
No importa cuáles sean los valores de la para una distribución de probabilidad normal, el área total
bajo la curva es 1.00, de manera que podemos pensar en áreas bajo la curva como si fueran
probabilidades. Matemáticamente es verdad que:
Donde:
x = variable de tipo discreto; solo toma valores enteros
= np = media de la distribución Binomial
Sea X una variable aleatoria con distribución binomial, si n es grande, 0 < p < 1, la distribución binomial
se puede aproximar a la distribución normal con media µ= np y varianza σ²= npq
.
La distribución normal tiene como fdp,
13
lo que nos permite el cálculo de la siguiente probabilidad:
El teorema de Moivre (1.756) permite realizar esta aproximación considerando p=q=1/2 que las
variables aleatorias sigan una distribución binomial con: . Este teorema fue generalizado
posteriormente por Laplace en 1.810 para distribuciones no simétricas p≠q .
Vimos que la variable aleatoria binomial era el número de éxitos que tienen lugar cuando se
realizan n repeticiones independientes de un experimento o prueba de Bernoulli. La variable
aleatoria x puede escribirse como la suma de n variables aleatorias de Bernoulli.
La varianza
La desviación estándar
¿Cuál es la probabilidad de que menos de 40 casas de la muestra tengan cámara de video? Se
necesita P(X<40)>
14
DISTRIBUCIÓN EXPONENCIAL.
A pesar de que la distribución Normal puede utilizarse para resolver muchos problemas en ingeniería y
ciencias, existen aún numerosas situaciones que requieren diferentes tipos de funciones de densidad, tales
como la exponencial y la gamma y algunas otras como la weibull, etc., etc., de momento solo trataremos
sobre el uso de la exponencial.
Resulta que la exponencial es un caso especial de la distribución gamma, ambas tienen un gran número
de aplicaciones. Las distribuciones exponencial y gamma juegan un papel importante tanto en teoría de
colas como en problemas de confiabilidad. El tiempo entre las llegadas en las instalaciones de servicio y
el tiempo de falla de los componentes y sistemas eléctricos, frecuentemente involucran la distribución
exponencial. La relación entre la gamma y la exponencial permite que la distribución gamma se utilice en
tipos similares de problemas.
La variable aleatoria x tiene una distribución exponencial, con parámetro b, si su función de densidad es:
Relación con el proceso de Poisson.
Las aplicaciones más importantes de la distribución exponencial son aquellas situaciones en donde se
aplica el proceso de Poisson , es necesario recordar que un proceso de Poisson permite el uso de la
distribución de Poisson. Recuérdese también que la distribución de Poisson se utiliza para calcular la
probabilidad de números específicos de “eventos” durante un período o espacio particular. En muchas
aplicaciones, el período o la cantidad de espacio es la variable aleatoria. Por ejemplo un ingeniero
industrial puede interesarse en el tiempo T entre llegadas en una intersección congestionada durante la
hora de salida de trabajo en una gran ciudad. Una llegada representa el evento de Poisson.
La relación entre la distribución exponencial (con frecuencia llamada exponencial negativa) y el proceso
llamado de Poisson es bastante simple. La distribución de Poisson se desarrolló como una distribución
de un solo parámetro l, donde l puede interpretarse como el número promedio de eventos por unidad de
“tiempo” . Considérese ahora la variable aleatoria descrita por el tiempo que se requiere para que ocurra
el primer evento. Mediante la distribución de Poisson, se encuentra que la probabilidad de que no ocurran
en el espacio hasta el tiempo t está dada por:
;
Ahora puede utilizarse lo anterior y hacer que X sea el tiempo para el primer evento de Poisson. La
probabilidad de que el período hasta que ocurre el primer evento de Poisson exceda x es la misma que la
probabilidad de que no ocurra un evento de Poisson en x. Esto último por supuesto está dado por .
Como resultado, P(X ³ x) =
Entonces, la función de distribución acumulada para x es: P(0£ X £ x) = 1 -
Ahora, con objeto de que se reconozca la presencia de la distribución exponencial, puede derivarse la
distribución acumulada anterior para obtener la función de densidad: f(x) =
15
Bibliografía
http://www.itchihuahua.edu.mx/academic/industrial/sabaticorita/_pri
vate/002APROXIMACION%20%20DE%20%20LA%20%20NORM
AL%20%20A%20%20LA%20%20BINOMIAL.htm
16