Professional Documents
Culture Documents
3
10
= C
10,3
=120
Se ve fcilmente que
m n
n
m! m)! (n
n!
m)! (n m!
n!
m
n
, por ejemplo C
10,3
= C
10,7
=
= 10.9.8.7.6.5.4.3.2/3.2/7.6.5.4.3.2 = 10.9.8/3.2.1 .
Ntese que el numerador es el producto de una serie de m nmeros decrecientes que empiezan con n, y el denominador es el
producto de una serie creciente de 1 hasta m . Esta forma de recordar el clculo de C
n,m
nos ser particularmente til cuando
generalicemos el concepto de combinaciones a nmeros no enteros, al calcular los trminos de potencias cualesquiera de un
binomio.
De acuerdo a la generalizacin de factorial para 0!=1!=1, es
n
1
n
y 1
0
n
=
=
=
3/48
3.2.1
3/2) 1/2).( 1/2.(
3
1/2
=
=
/384 15
4.3.2.1
) 3/2).(-5/2 /2).( 1 1/2.( 1/2
4
=
=
o
)
4
1
,
6
media
mediana
moda
DISTRIBUCIN DE EDADES
0
100
200
300
400
0-10 10-20 20-30 30-4040-5050-60 60-70 70-80 80-9090-100 100-110
categora (aos)
4
1
,
6
N
d
e
h
a
b
i
t
a
n
t
e
s
p
o
r
c
a
t
e
g
o
r
a
11
La integral de la funcin densidad de frecuencia desde el origen hasta un valor t es H(t) =
o
t
h(t) dt, y representa
la cantidad de habitantes que hay entre cero y la edad t . Se llama a H(t) frecuencia acumulada porque incluye o
acumula los habitantes de todas las edades desde cero hasta t . El rea sombreada en el grfico superior vale
40
60
h(t)
dt, es decir la cantidad de personas que tienen entre cuarenta y sesenta aos de edad (550), y coincide con la dife-
rencia de ordenadas de la funcin acumulada H(60)-H(40) = 1092 542 = 550 personas, segn se ve en el grfico
que sigue.
Medias y otros parmetros de posicin
Se vio que la media aritmtica de todos los valores se calcula sumando la edad de todos los habitantes y divi-
dindola por el nmero de ellos. Como no tenemos a mano los resultados de detalle del censo y si en cambio los de
la tabla resumen, trabajaremos con ella. La misma simplifica la distribucin, considerando que los 53 habitantes
cuyas edades varan entre cero y diez aos se pueden reemplazar por un nmero igual de personas con una edad
promedio igual al valor medio del intervalo, esto es cinco aos de edad. De la misma manera, los 98 jvenes de
entre 10 y 20 se meten en la estadstica como 98 personas de edad promedio de quince aos, y as sucesivamente.
Seamos conscientes que como toda simplificacin, la llevada a cabo recin introduce una imprecisin o error al
ignorar la distribucin propia dentro de cada categora. El promedio de esta distribucin categorizada de diez en diez
aos, sale de sumar los productos de la cantidad de personas de cada intervalo por la edad promedio representativa
del dicho intervalo, todo esto dividido el numero total de personas:
(53x5 + 98x15 + 124x25 + ..... + 3x95) / (53+98+124+....+3) = 41,6 aos. El numerador de dicha fraccin es lo que
en mecnica se llama momento de primer orden de una funcin con respecto al origen, y la media aritmtica
viene a ser el centro de gravedad de la distribucin.
Ya se mencion que adems de la media aritmtica o simple promedio, se usan como indicadores otras medias: la
geomtrica, la armnica y la cuadrtica o valor eficaz, llamada tambin por los norteamericanos RMS (root mean
square = raz del valor cuadrtico medio)
Para una serie de n nmeros a
1
, a
2
, a
3
,... a
n
, se tiene:
media aritmtica (a
i
) = M(a
i
) = (
=1...n
a
i
)/ n
media geomtrica (a
i
) = G(a
i
) = (a
1
. a
2
. a
3
.....a
n
,)
1/n
media armnica (a
i
) = H(a
i
) = n / (
=1...n
1/a
i
)
media cuadrtica (a
i
) = Ef (a
i
) = RMS(a
i
) = (
=1...n
a
i
2
/ n)
o
)
4
1
,
6
FUMAR ES PERJUDICIAL PARA LA SALUD
12
2.05 1.9 1.89 2.12 1.95 7 1.8 1.92 2.1 2.2
M= 2.493 media aritmtica
G= 2.255 media geomtrica
H= 2.138 media armnica
Ef= 2.913 media cuadrtica
Mediana, cuartilos, percentiles y moda
Se llama mediana al valor de la abscisa o variable que separa en partes iguales el nmero de observaciones superio-
res e inferiores.
La serie de datos ordenada de menor a mayor es:
1.8 1.89 1.9 1.92 1.95 2.01 2.05 2.1 2.12 2.2
Por ser par el nmero de datos, hay dos valores centrales, y la mediana se aproxima entonces al promedio entre
ellos, es decir 1.98 (recordemos que la media aritmtica es 1,994)
La influencia de valores extremos se hace sentir menos en la mediana que en la media, por ejemplo si entre los di-
metros de los cigarros se computara uno fuera de serie de 2,5 cm, el promedio de la serie sera de 2.04 , mientras que
el de la mediana pasara a 2.01
En el caso de una distribucin, como la de edades de Caada Chica, la mediana se sita (ver la tabla)
entre los valores 892 y 1092, que corresponden respectivamente a las categoras centradas en 45 y 55 aos, o sea que
se puede tomar como mediana de la distribucin el valor 50 aos. La ubicacin de la mediana est indicada en el
grfico de la distribucin continua con lnea de puntos.
Interesa a veces conocer adems del valor de la variable que separa partes iguales de la poblacin ordenada, la que
separa cuartos :el primero del segundo, el segundo del tercero y el tercero del cuarto.. Estos valores de la variable se
llaman cuartilos primero, segundo y tercero respectivamente. Lgicamente, el segundo cuartilo coincide con la me-
diana. Por ejemplo, el tercer cuartilo de nuestro ejemplo es la abscisa que corresponde a una poblacin acumulada
de x 1257 = 942.75 . Haciendo una interpolacin lineal, a este valor acumulado le corresponde una abscisa de 45
+ 5 x (942.75-892)/(1092-892) = 46,27 , que es el tercer cuartilo.
Generalizando el concepto anterior a cualquier fraccin o porcentaje del acumulado, se definen as los percentiles de
cualquier valor. Por supuesto, el tercer cuartilo es el percentil correspondiente al 75%
Moda o dominante es el valor de la variable que corresponde a mxima frecuencia, o sea la abscisa del valor m-
ximo de la distribucin. Para la distribucin de Caada Chica, la moda corresponde al valor medio de la categora
del bastn de mayor altura (350 H/ao), esto es 45 aos. Se la ha indicado en el grfico de la distribucin continua
con lnea de trazos.
Media, mediana y moda coinciden slo en el caso de una distribucin simtrica. En cambio, en el caso de una
distribucin asimtrica como la del ejemplo, se sitan hacia el lado de la cola en el siguiente orden: moda, mediana
y media.
Momentos de una distribucin
En general, el momento centrado de grado k de una serie de N valores a
i
(con i =1,2...n), est dado por
M M
k
=
i
(a
i
-m)
k
siendo m = (
i
a
i
)/N la media aritmtica
Para una distribucin discontinua de n bastones de peso p
i
y abscisas x
i
(con i =1,2...n), el momento centrado de
grado k est dado por M M
k
=
i
p
i
.(x
i
-m)
k
siendo m = (
i
p
i
.x
i
)/N la media aritmtica.
Para una distribucin continua de densidad de frecuencia f(x)=dp/dx , el momento centrado de grado k viene de la
expresin anterior, cambiando la funcin discreta p
i
de la variable x
i
por la diferencial dp=f(x).dx y la sumatoria por
una integral entre los lmites de existencia de f(x), (en general - a +), vale decir que
M M
k
=
-
+
f(x).(x-m)
k
.dx , siendo m =
-
+
x. f(x).dx/
-
+
f(x).dx la media aritmtica.
Ejercicio: Demostrar que el momento centrado de primer orden es nulo:
Demostracin: M M
1centr
=
-
+
f(x).(x-m).dx =
-
+
x. f(x). dx -m
-
+
f(x).dx , pero siendo el segundo trmino
igual a
-
+
x. f(x).dx, por definicin de media aritmtica dada en el prrafo anterior, es M M
1centr
= 0.
Los momentos son importantes indicadores de la forma de una distribucin (achatada, puntiaguda, simtrica o
asimtrica).
13
Momentos de orden par y dispersin
Veremos primeramente el momento de segundo orden, llamado en mecnica momento de inercia, cuyo valor
para una agrupacin de masas se calcula multiplicando el valor de cada una de ellas por el cuadrado de la distancia
a un determinado eje o punto, que se toma como referencia. Para un conjunto de datos categorizados en una distri-
bucin discontinua, el momento de segundo orden con respecto al origen se calcula sumando todos los productos
formados por los valores de cada categora y la abscisa media correspondiente a esa categora al cuadrado. Si la
abscisa se toma con respecto a la media, se obtiene as un momento de segundo orden centrado. El valor del mo-
mento centrado de segundo orden es sensible a la dispersin de la poblacin con respecto a la media. Al figurar
diferencias de abscisas al cuadrado (siempre positivas) este parmetro no registra si la dispersin es simtrica o
asimtrica con respecto al centro.
Volviendo nuevamente a la distribucin de poblacin del ejemplo, cuya media vale m = 41.6 , tenemos:
x (H/ao) (x-m)
2
h (H) h.(x-m)
2
5 1339.20 53 70977.54
15 707.30 98 69315.17
25 75.40 124 34149.14
35 43.50 267 11613.14
45 11.59 350 4057.75
55 179.69 200 35938.44
65 547.79 120 65734.90
75 1115.89 30 33476.69
85 1883.99 12 22607.88
95 2852.09 3 8556.269
TOTAL 1257 356426.89
De acuerdo a los clculos resumidos en la tabla anterior, el momento centrado de segundo orden es M
2c
=356426.89
En mecnica se usa el radio de inercia, que es la distancia i a la que se debera poner toda la masa concentrada N
para obtener el mismo momento de inercia centrado M
2c
del cuerpo en cuestin, as M
2c
=N.i
2
de donde i=(M
2c
/N)
En estadstica hay algo anlogo al radio de inercia, que se llama desvo standard , simbolizado universalmente
con la letra , y que en nuestro caso de vale = (356426.89/1257)
= 0,117
Una varianza mayor perteneciente a otra muestra de igual nmero de cigarros extrada en otro momento podra in-
terpretarse consecuencia de algn tipo de desajuste en la mquina, que hace que los cigarros salgan ms desparejos.
Momentos de grado superior al segundo
Momentos de grado impar
Los momentos de centrados de tercer orden, y en general los de grado impar, son nulos en distribuciones simtricas
con respecto a su media. Segn la figura figura, para k impar es (x-m)
k
= -(m-x)
k
entonces es:
14
M M
kcentr
=
m
f(x).(x-m)
k
.d(x) +
-
m
f(x).(m-x)
k
.d(x) =
m
f(x).(x-m)
k
.d(x) -
-
m
f(x).(x-m)
k
.d(x)
En virtud de la simetra de f(x) alrededor de m las dos integrales tienen el mismo valor, por lo que su resta es cero,
por lo tanto M M
kcentr
= 0 para k par y f(x) simtrica.
Contrario sensu, resulta fcil darse cuenta que la
asimetra genera momentos de orden impar no
nulos, ya que los valores absolutos de las inte-
grales primera y segunda (a la derecha y a la
izquierda de la media respectivamente) son
diferentes. El signo es el de la integral de mayor
valor absoluto. As, en una distribucin ms
extendida hacia la derecha de la media, el mo-
mento impar es positivo, y negativo si la cola de la distribucin se
extiende ms hacia al izquierda de la media.
A continuacin se presenta la tabla de clculo del momento de tercer orden de la distribucin de poblacin de Caa-
da Chica:
h (x-m)
3
h.(x-m)
3
53 -49008,07702 2597428,082
98 -18810,62808 -1843441,552
124 -4570,219713 -566707,2444
267 -286,8519183 -76589,4622
350 39,47530316 13816,35611
200 2408,761952 481752,3904
120 12821,00803 1538520,963
30 37276,21353 1118286,406
12 81774,37846 981292,5415
3 152315,5028 456946,5085
0 254899,5866 0
M3 = -493551,1747
El valor negativo del momento de tercer orden indica que la distribucin se vuelca ms hacia la izquierda, por ms
que en el histograma no aparezca tan claro este efecto.
En una distribucin discontinua, el momento centrado de tercer orden es M M
3centr
=
i
p
i
.(x
i
-M M
1
)
3
, y tomando (x
i
-
M M
1
)
3
= x
i
3
- 3 x
i
2
M M
1
+3 x
i
M M
1
2
- M M
1
3
, resulta:
M M
3centr
=
i
p
i
. x
i
3
- 3 M M
1
i
p
i
x
i
2
+3 M M
1
2
i
p
i
x
i
- m
3
i
p
i
=
M M
3centr
= M M
3
- 3 M M
1
M M
2
+3 M M
1
2
M M
1
- M M
1
3
= M M
3
- 3 M M
1
M M
2
+2 M M
1
3
Momentos de grado par
Los momentos de grado par superiores al segundo, por ejemplo el de cuarto grado, amplifican la dispersin o
aplastamiento de la distribucin. Generalmente se usan comparando su valor con la distribucin normal de Gauss,
que estudiaremos luego.
Volviendo a las probabilidades
Vimos que la probabilidad matemtica de ocurrencia de un suceso se define como cociente entre el nmero de casos
favorables a que se presente dicho acontecimiento y el nmero de casos igualmente posibles o probables. Para sal-
var la aparente recurrencia de la definicin anterior, digamos que caso igualmente probable a aqul que no presenta
ninguna condicin que lo haga preferible o favorito frente a otros.
Al afirmar que los casos posibles al tirar un dado son seis, estamos tcitamente admitiendo que el dado est perfec-
tamente equilibrado, y que el mecanismo de tirarlo incluye factores de azar impredecibles e incontrolables que no
hacen pensar en ninguna tendencia.
Vimos tambin que la ley de los grandes nmeros permite asimilar frecuencia con probabilidad cuando las prue-
bas se realizan un nmero de veces indefinidamente grande. As, si la cantidad de veces que sale ceca al tirar un
milln de veces una moneda es de 796803 , podremos afirmar con seguridad casi absoluta que la moneda no est
equilibrada. La mayora de las veces la experiencia no es tan concluyente como la recin descripta, y en vez de la
dx
dp = f(x).dx
m
x-m
m-x
dp
Cuando k es impar la integral desde m hasta de
f(x) (x-m)
k
dx es de signo contrario a la de - hasta m,
ya que (x-m)
k
= - (m-x)
k
, por lo tanto la suma de
ambas integrales (momento de orden k) es nula
f(x)
Minpar > 0
Minpar < 0
15
afirmacin se puede dar slo una estimacin de la probabilidad de que nuestra hiptesis sea la correcta. Las tcnicas
de ensayos de hiptesis de las que hablaremos ms adelante cumplen este cometido.
Extensin de la nocin de probabilidad
Hay hechos en los que los casos (posibles y favorables) estn representados por variables continuas, en vez de n-
meros naturales. Valga el famoso ejemplo de la aguja atribuido al clebre naturalista francs Georges-Louis Le-
clerc de Buffon (1707-1788):
El problema de la aguja (o del alfiler)
Un alfiler de longitud l se deja caer al azar sobre una pgina con
renglones separados por una distancia a. La longitud del alfiler es
menor que la distancia entre renglones, es decir l l < a. Cul es la
probabilidad de que el alfiler se ubique cortando o tocando algn
rengln?
Los casos de este problema son
las posiciones del alfiler, cada
una de las cuales puede expre-
sarse con dos nmeros: la dis-
tancia x del centro del alfiler al
rengln ms prximo (la posi-
cin a lo largo de los renglones
no interesa) , y su orientacin,
medida por el ngulo que forma con una normal cualquiera a los
renglones.
As, los casos posibles estn representados por la suma de todos los
productos entre valores de x , posibles, o sea dentro de los intervalos 0 x a/2 y 0 /2. Como se trata de varia-
bles continuas, la suma se transforma en integral de diferenciales, o sea que el universo de casos posibles es:
Casos posibles =
x=o
x=a/2
=o
=/2 /2
d. .dx = a./4 /4
Los casos favorables estn representados por las posiciones en las que el alfiler toca algn rengln, para lo cual su
centro no puede estar ms all de la distancia l/2.cos , o sea 0 x l/2.cos con 0 /2.
De tal manera, la totalidad de los casos favorables viene dado por :
Casos favorables =
x=o
x= l l/2
cos
=o
= /2
d. .dx =
= l l/2
=o
= /2
cos d = = l l/2
Entonces, la probabilidad de que el alfiler caiga sobre un rengln es l l/2/ /a/ 4 / 4 = 2 2 l l / /a/ /
En la figura de la derecha se reproducen los resultados de arrojar 30 alfileres de 15,5 mm de largo sobre una hoja
con paralelas a 20 mm , contndose 14 alfileres que atraviesan o apoyan sobre renglones. La probabilidad experi-
mental o frecuencia resulta as f = 14/30 =0,47 . De acuerdo al clculo anterior el valor matemtico de la probabili-
dad resulta p=2l l /a/ = 2.15,5/20/3,1416 = 0,493
Probabilidad simple y compuesta
La estrecha vinculacin entre estadstica y la teora de las probabilidades aconseja estudiar algunos aspectos de sta
en detalle : Examinemos algunos ejemplos:
Ejemplo 1: Cul es la probabilidad de obtener un seis arrojando dos dados?
Los casos favorables son: 1 y 5 2 y 4 3 y 3 4 y 2 5 y 1. En total 5 casos favorables
Los casos posibles son 1 y 1 1 y 2 1 y 3 - 1 y 4 1 y 5 1 y 6
2 y 1 2 y 2 2 y 3 - 2 y 4 2 y 5 2 y 6
3 y 1 3 y 2 3 y 3 - 3 y 4 3 y 5 3 y 6
4 y 1 4 y 2 4 y 3 - 4 y 4 4 y 5 4 y 6
5 y 1 5 y 2 5 y 3 - 5 y 4 5 y 5 5 y 6
6 y 1 6 y 2 6 y 3 - 6 y 4 6 y 5 6 y 6
En total 36 casos posibles, por lo que la probabilidad resulta entonces 5/36
l
a
x
El problema de Buffon
16
Ejemplo 2: Dos dados son distinguibles entre s, por ejemplo de diferente color Cul es la probabilidad de obtener
un 1 en el primer dado y un 5 en el segundo,?
Casos favorables : 1 ; Casos posibles : 36 ; la probabilidad buscada vale 1/36.
Esta probabilidad es la misma que la de sacar dos nmeros cualesquiera en cualquier orden, o si se prefiere, de sacar
una secuencia de dos nmeros determinados arrojando un mismo dado dos veces, ya que el resultado de la primera
prueba no afectar a la de la segunda sucesiva, y tambin lo que salga en el primer dado no afecta a lo que sale en el
segundo cuando se tiran dos al mismo tiempo.
Los sucesos de los casos anteriores se pueden considerar como combinacin de sucesos simples: por ejemplo, el de
sacar un seis con dos dados puede descomponerse en cinco sucesos excluyentes que pueden ocurrir indistintamente,
cada uno de ellos formado por dos sucesos que tienen que ocurrir en determinado orden, es decir que:
Cinco sucesos que pueden ocurrir indistintamente, separados por la conjuncin disyuntiva o, a saber:
1 y 5 o 2 y 4 o 3 y 3 o 4 y 2 o 5 y 1
cada uno de ellos formados por dos sucesos independientes que deben ocurrir juntos, separados por la conjuncin
copulativa y , por ejemplo 4 y 2. La probabilidad de que salga un cuatro es 1/6 y la probabilidad de que salga un
dos es tambin 1/6, pero ya calculamos que la probabilidad de que salga la combinada 2 y 4 es 1/36, que es el pro-
ducto de 1/6x1/6.
Se demuestra que en general, como en este caso, la probabilidad de ocurrencia de un suceso compuesto por una serie
de eventos ms simples sin conexin entre s es el producto de las probabilidades individuales de todos ellos. En el
lenguaje corriente, esta condicin se expresa con la conjuncin copulativa y: La probabilidad de sacar un cuatro y
(producto!) un dos tirando un dado dos veces es 1/6 x 1/6 = 1/36
Ahora bien: en el universo de todos los sucesos posibles, en nuestro caso 36, la cantidad de sucesos que deben ocu-
rrir de alguna forma para formar un seis es la suma de todas las combinaciones posibles que den ese nmero, es
decir cinco combinaciones, cada una de las cuales tiene una probabilidad individual de 1/36. El resultado obtenido
antes de 5/36 se puede considerar as como la suma de cinco probabilidades individuales de valor 1/36
Se demuestra que en general, como en este caso, la probabilidad de un suceso compuesto por una serie de eventos
ms simples independientes que deben ocurrir indistintamente es la suma de las probabilidades individuales de
todos ellos. En el lenguaje corriente, esta condicin de ocurrencia se expresa con la conjuncin disyuntiva o: La
probabilidad de sacar un 4 o (suma!) un 2 tirando un dado dos veces es 1/6 + 1/6 = 1/3
Ejemplo: Cul es la probabilidad de sacar flor en el truco?. Respuesta: Sacar flor significa sacar tres cartas seguidas del mismo palo. El truco
se juega con una baraja de 40 cartas, entre las que hay 10 cartas de cada palo. La probabilidad de sacar una copa y otra copa y otra copa ms es el
producto de las probabilidades independientes, es decir 10/40 x 9/39 x 8/38 = 0.01214
Probabilidades y diagramas lgicos
Se pueden usar con ventajas en el clculo de probabilidades los dia-
gramas lgicos de Venn (atribuidos al lgico britnico John Venn (...-
1923), en los que se representan el universo de todos los hechos posi-
bles y cada uno de estos hechos en particular con una superficie ce-
rrada (en general el universo con un cuadrado y los hechos con cr-
culos).
En la figura se representan los sucesos A y B, con sendos crculos en el cuadrado del universo posible.
Hay conjuncin o interseccin de dos acontecimientos cuando se presentan juntos AyB . Con el lenguaje simblico
la conjuncin se escribe A.B o A B
Hay disyuncin de dos acontecimientos cuando se presentan uno u otro, o los dos. La disyuncin se representa de
AyB se representa con A B
La negacin de un acontecimiento es el evento contrario a su presentacin: o sea cuando no se produce. La nnega-
cin de A se indica con A
El resultado 0 se aplica a un acontecimiento que no se presenta y U cuando se presenta.
De tal modo, se verifica claramente que A A=0 y A A=U
Teorema de la probabilidad compuesta condicional
Sean dos bolilleros con 10 bolillas cada uno de tres colores diferentes.
A B
B A
A B
A
B
A
B
17
El primero con 3 bolillas verdes, 2 bolillas negras y 5 bolillas rojas
El segundo con 7 bolillas verdes, 1 bolilla negra y 2 bolillas rojas
Llamemos R
1
al suceso de sacar una bolilla roja del primer bolillero y V
2
al de extraer una bolilla verde del segundo
bolillero.
Est claro que son sucesos independientes, ya que la ocurrencia del uno no influye en la del otro.
Ya vimos que la probabilidad compuesta de que ocurran estos dos hechos es
p(R
1
V
2
) =p(R
1
).p(V
2
)=5/10.7/10 = 0,35
Pero ahora compliquemos un poco la cosa: Saquemos una bolilla al azar del primer bolillero e introduzcmosla sin
ver su color en el segundo. Cul ser la probabilidad de extraer una verde de ste segundo bolillero despus de
haber practicado la introduccin mencionada? Desde ya que ahora no puede hablarse de sucesos independientes, ya
que la composicin del segundo bolillero depende del color de la bolilla introducida, que a su vez proviene del pri-
mer bolillero.
Si sta fu roja, la probabilidad de sacar una verde ser (atencin a la notacin) p
R1
(V
2
)=7/11 , y la probabilidad
condicional total ser p(R
1
V
2
) = p(R
1
). p
R1
(V
2
) = (5/10.7/11) = 35/110 = 7/55
La probabilidad de sacar una roja del primer bolillero, cargado con una bolilla al azar del segundo es p(V
2
R
1
) =
p(V
2
). p
V2
(R
1
) = 7/10.5/11 = 35/110 = 7/55 = p(R
1
). p
R1
(V
2
) = p(R
1
V
2
), es decir igual que antes.
En general se demuestra que existe esta relacin recproca : p(A).p
A
(B) = p(B).p
B
(A)
Demostracin general:
Consideremos que dos acontecimientos mutuamente excluyentes A y B pueden producirse un nmero total de veces
N de la siguiente manera , con N = a+b+c+d
A B se presenta a veces de donde p(A B) = a /N
A B se presenta b veces de donde p(A B) = b /N
A B se presenta c veces de donde p(A B) = c /N
A B se presenta d veces de donde p(A B) = d /N
Como el acontecimiento A est presente slo en A B y A B (y no en A B y/o A B),
su probabilidad de ocurrencia es p(A) = p(A B) + p(A B) = (a+b)/N (1)
Si se ha producido A sabemos que hay en total (a+b) casos entre los que puede haberse pro-
ducido el B. Los casos posibles de que se produzca el B son a y c, pero quedando c descartado porque es el nmero
de casos posibles en los que B se presenta acompaado con A y no con A. As que los casos posible son nueva-
mente a, de donde p
A
(B)=a/(a+b) (2)
De (1) y (2) es p(A).p
A
(B) = (a+b)/N. a/(a+b) = a/N = p(A B) = p(A).p(B) (3)
De la misma forma, podemos decir que como el acontecimiento B est presente slo en A B y A B (y no en
A B y/o A B), su probabilidad de ocurrencia es p(B) = p(A B) + p(A B) = (a+c)/N (4)
Si se ha producido B sabemos que hay un total de (a+c) casos entre los que puede haberse producido el A. Los casos
posibles de que se produzca el A son a y b, pero quedando b descartado porque es el nmero de casos en los que A
se presenta acompaado con B y no con B. As que los casos posibles son nuevamente a, de donde:
p
B
(A)=a/(a+c) (5)
De (4) y (5) es p(B).p
B
(A) = (a+c)/N. a/(a+c) = a/N = p(A B) = p(A).p(B) (6)
De (3) y (6) se deduce que p(A).p
A
(B) = p(B).p
B
(A) , que era lo que se quera demostrar.
Teorema de Bayes (sobre la probabilidad de las causas)
El telogo y matemtico ingls Toms Bayes (1702-1761) estableci una importante relacin basada en las siguien-
tes ecuaciones, derivadas a su vez de la igualdad anterior:
p
B
(A) = p(A).p
A
(B) / p(B), vlida para p(B)0 (1)
A B
B A
A B
A
B
A
18
Considerando que el suceso A se deba a la serie de n causas independientes entre s A
1
, A
2
...A
n
, podremos escribir
que A = A
1
A
2
A
3
... A
n
(2)
Si consideramos que hay una acontecimiento B que se debe a alguna/s de las causas A
i
, podremos poner que B =
A
A
B = (A
1
A1
B)
(A
2
A2
B)
(A
3
A3
B)
... (A
n
An
B) (3)
y aplicando probabilidades resulta:
p(B) = p(A
1
).p(
A1
B)
+ p(A
2
).p(
A2
B) + p(A
3
).p(
A3
B) +...+ p(A
n
).p(
An
B) =
i=1..n
p(A
i
).p(
Ai
B) (4)
De (1) aplicado al caso genrico i es p
B
(A
i
) = p(A
i
).p
A
(B
i
) / p(B), y reemplazando p(B) por el desarrollo (4) resulta
la frmula de Bayes : p
B
(A
i
) = p(A
i
).p
Ai
(B) /
i=1..n
p(A
i
).p
Ai
(B) (5) donde:
p(A
i
) es la probabilidad de que ocurra la causa A
i
a priori, es decir sin que tenga que ver ningn otro evento condi-
cionante.
p
B
(A
i
) es la probabilidad de que ocurra la causa A
i
a posteriori, es decir cuando antes ha ocurrido el evento B
p
Ai
(B) es la probabilidad de que ocurra el evento B a posteriori de la causa A
i
Ejemplo:
En una eleccin universitaria, votan 10 electores de cada uno de los tres claustros ms importantes para elegir rector
entre dos candidatos: el Dr. Camilo y el Licenciado Pepone. Todos se sabe en el ambiente universitario, as que
conociendo la identidad de cada uno de los 30 electores y sus respectivas preferencias por un determinado candida-
to, el recuento de votos es mera frmula, ya que el resultado de la votacin se conoce extraoficialmente antes del
escrutinio:
urna N / Candidato a decano Dr. Camilo Lic. Pepone TOTAL
1 (Ciencias) 4 6 10
2 (Filosofa) 5 5 10
3 (Derecho) 3 7 10
El recuento se comenz tomando una urna al azar, sacndose de a uno lo votos de adentro. Los primero tres fueron:
Primer voto = Dr. Camilo
Segundo voto = Dr. Camilo
Tercer voto = Lic. Pepone
En ese momento, el profesor de Estadstica Ing. O. Mermoz hizo rpidamente un clculo que le indicaba que lo ms
probable era que la urna que se estaba escrutando fuera de Filosofa (A
2
). A ver qu les parece el algoritmo emplea-
do:
Clculo:
Las probabilidades a priori (antes de conocer el resultado) son 1/3 para cada urna, ya que ellas son idnticas. As
entonces es p(A
1
) = 1/3 ; p(A
2
) =1/3 ; p(A
3
) = 1/3
Las probabilidades de que se produzca el evento compuesto en cada urna son:
p
A1
(B) = 4/10.3/9.6/8 = 0.1
p
A2
(B) = 5/10.4/9.5/8 = 0.139
p
A3
(B) = 3/10.2/9.7/8 = 0.058
Adems es
i=1..n
p(A
i
).p(
Ai
B) = 1/3x 0.1 + 1/3 x 0.139 + 1/3 x 0.058 = 0.099
Y ahora estamos en condiciones de aplicar la frmula final para cada urna,
p
B
(A
i
) = p(A
i
).p
Ai
(B) /
i=1..n
p(A
i
).p
Ai
(B), que nos da:
p
B
(A
1
) = 0.1/3/0.099 = 0.336
p
B
(A
2
) = 0.139/3/0.099 = 0.467
p
B
(A
3
) = 0.058/3/0.099 = 0.196
Nota: Los personajes del ejemplo son de ficcin, menos el Ing. Osvaldo Mermoz, que tiene una brillante trayectoria como docente y
profesional, y del que me honra haber sido su alumno en el Colegio Nacional de Buenos Aires y en la Facultad de Ingeniera, donde all
por el ao 1957 enseaba entre otras cosas el teorema de Bayes a un grupo de futuros ingenieros.
19
Pruebas repetidas La distribucin binomial
Qu probabilidad hay al tirar m veces un dado de que salga un evento determinado, por ejemplo un as un nmero n
de veces? (por supuesto que m>n)
La probabilidad de sacar un nmero determinado (un as en particular) en cada tiro de dados (suceso simple inde-
pendiente) es 1/6.
La probabilidad de sacar n nmeros determinados (n ases, por ejemplo) en n tiros es p=(1/6)
n
, ya que son sucesos
independientes.
La probabilidad de no sacar algn nmero determinado en un tiro es (1-p) = (1-1/6) = 5/6, y la probabilidad de no
sacar el nmero elegido los restantes m-n tiros es (1-1/6)
(m-n)
As, interesa el suceso que consiste en un xito seguido de un no xito o fracaso. Este suceso tendr una
probabilidad compuesta de p
n
.(1-p)
(m-n)
, en nuestro caso (1/6)
n
.(1-1/6)
(m-n)
Por ejemplo, sea m=12 veces , n=4, es decir que salgan 4 ases seguidos, y que despus no salgan ms ases en los
siguientes 8 tiros
La probabilidad de este suceso es (1/6)
4
.(5/6)
8
Algunas posibles secuencias seran:
1,1,1,1,5,6,2,6,4,5,3,3 1,1,1,1,5,2,6,4,6,3,3,5 1,1,1,1,3,2,3,2,6,4,2,4.... y muchas ms.
Pero lo que se ha planteado es la cantidad de xitos sin tener en cuenta el orden de aparicin, y eso sin individualizar
a los fracasos, todos los cuales son equivalentes. Es decir que los acontecimientos tomados en consideracin (todos
ellos de probabilidad (1/6)
4
.(5/6)
8
) seran del tipo:
1,1,1,1,f,f,f,f,f,f,f,f 1,1,f,f,1,f,f,f,1,f,f,f f,f,1,1,1f,f,f,1,f,f,f f,1,1,f,f,f,f,1,f,f,f,1
Cuntos grupos podemos formar? Nuestros estudios de anlisis combinatorio nos permiten afirmar que cualquiera
de las series de 12 elementos en cuestin se pueden disponer de 12! maneras distintas, en las que no interesa el or-
den de los grupos de 4 aciertos y 8 fracasos, as que interesan slo 12!/4!/8! = combinaciones de 12 elementos to-
mados de a 4, o de a 8, o sea C
12,4
= C
12,8
= 495. De tal manera la probabilidad de que se repita un nmero cualquie-
ra (del uno al seis) 4 veces en 12 tiros vale 495 x (1/6)
4
x (5/6)
8
= 0.0888
En la figura adjunta se representa P
12,n
= C
12,n.
(1/6)
n
x
(5/6)
(12-n)
para n de 0 a 12, de acuerdo a la siguiente tabla
de valores.
n P12,n n P12,n
0 0,112156655 7 0,001136999
1 0,269175971 8 0,000142125
2 0,296093569 9 1,26333E-05
3 0,197395712 10 7,58E-07
4 0,088828071 11 2,75636E-08
5 0,028424983 12 4,59394E-10
6 0,006632496 Suma 1
Como es lgico, son bajas las probabilidades de obtener cero ases y la de obtener todos ases en doce tiros. El m-
ximo de probabilidad (0,296) corresponde a dos xitos en doce tiros.
La distribucin de P
m,n,p
= C
mn
p
n
q
(m-n)
se llama binomial, porque tiene la forma de los trminos del desarrollo de
Newton para las potencias del binomio, es decir (a+b)
n
=
i=0...n
C
n,i
a
i
.b
(n-i)
. Desde ya que la suma de todas las
probabilidades es la certeza, puesto que
n=0...m
C
mn
p
n
q
(m-n)
= (p+q)
m
= 1
La forma de la distribucin binomial depende de los
valores de p,q y m. , como veremos a continuacin. En la
figura de la derecha se ve la forma de P
50,n
Media, varianza y asimetra de la distribucin binomial
Por definicin, la media de P
m,n,p
= C
mn
p
n
q
(m-n)
es
media (P
m,n,p
) =
n=0...m
n.C
mn
p
n
q
(m-n)
= M
1
(P
n,m,p
), y
coincide con el momento de primer orden M M
1
, ya que
n=0...m
C
mn
p
n
q
(m-n)
= 1
Comenzando la sumatoria en n=1, ya que el primer trmino, para n=0, es nulo, la expresin de la media se trans-
forma en M M
1
(P
m,n,p
) =
n=1...m
n.m!/n!/(m-n)! p
n
.q
(m-n)
=
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0 5 10 15
n
P
1
2
,
n
,
1
/
6
0
0,02
0,04
0,06
0,08
0,1
0,12
0,14
0,16
0 5 10 15 20
n
P
5
0
,
n
,
1
/
6
20
=
n=1...m
m.(m-1)!/(n-1)!/(m-n)! p
(n-1)
q
(m-n)
.p = m.p
n=1...m
.(m-1)!/(n-1)!/(m-n)! p
(n-1)
q
(m-n)
y dado que (m-1)!/(n-1)!/(m-n)! = (m-1)!/(n-1)!/[(m-1)-(n-1)]! = C
(m-1),(n-1)
, la sumatoria anterior
n=1...m
C
(m-1),(n-1)
p
(n-1)
q
(m-n)
representa la suma de todas las probabilidades, es decir la unidad, y entonces es M M
1
(P
m,n,p
) = m.p .
Para la primera distribucin es M M
1
(P
n,12, 1/6
) = 12/6=2 y para la segunda resulta M M
1
(P
n,50, 1/6
) = 50/6=8
1
/
3
El momento de segundo orden de una binomial con respecto al origen (es decir no centrado) es
M M
2
(P
n,m,p
) =
n=0...m
n
2
.C
mn
p
n
q
(m-n)
= = m.p.
n=1...m
n.(m-1)!/(n-1)!/(m-n)! p
n-1
.q
(m-n)
=
= m.p.
n=1...m
(n-1).(m-1)!/(n-1)!/(m-n)! p
n-1
.q
(m-n)
+ m.p.
n=1...m
(m-1)!/(n-1)!/(m-n)! p
(n-1)
.q
(m-n)
=
= m.p.
n=1...m
(n-1).C
(m-1),(n-1)
p
n-1
.q
(m-n)
+ m.p.
n=1...m
(m-1)!/(n-1)!/(m-n)! p
(n-1)
.q
(m-n)
pero notemos que la sumatoria
n=1...m
(n-1).C
(m-1),(n-1)
p
n-1
.q
(m-n)
representa el momento de primer orden de la varia-
ble (n-1), por lo que vale (m-1).p, y la segunda sumatoria vale (p+q)
(m-1)
=1, as que entonces:
M M
2
(P
n,m,p
) = mp [(m-1).p+1]=m
2
.p
2
-m.p
2
+m.p = m.p.(1-p)+ m
2
.p
2
= m.p.q+ m
2
.p
2
La varianza (o momento centrado de segundo orden) de la distribucin binomial es:
var (P
m,n,p
) = M M
2centr
(P
n,m,p
) =
n=0...m
(n-mp)
2
. C
mn
p
n
.q
(m-n)
=
= ( ( n=0...m
n
2
.C
mn
p
n
.q
(m-n)
) 2.m.p. .
n=0...m
n.C
mn
p
n
q
(m-n)
+m
2
p
2
n=0...m
C
mn
p
n
q
(m-n)
=
= M M
2
(P
n,m,p
) 2.m.p. M M
1
(P
n,m,p
) + m
2
p
2
, y reemplazando los momentos por las expresiones halladas antes, re-
sulta que var (P
m,n,p
) = m.p.q+ m
2
.p
2
2. m
2
.p
2
+ m
2
p
2
= m.p.q
Clculo de M
3
para la distribucin binomial
Se vi que para una distribucin discontinua o discreta es M
3centr
= M
3
- 3 M
1
M
2
+2 M
1
3
=
=
i
p
i
. x
i
3
- 3 M M
1
i
p
i
. x
i
2
+ 2 M M
1
3
Por definicin es M M
3
(P
n,m,p
) =
n=0...m
n
3
.C
mn
p
n
q
(m-n)
. Con un procedimiento anlogo al que ya usamos ante-
riormente para calcular M
2
, ponemos n.(n-1).(n-2) =n
3
-3n
2
+2n, de donde n
3
= [n.(n-1).(n-2)] +3n
2
-2n y entonces
es
M
3
(P
n,m,p
) =
n=0...m
[n.(n-1).(n-2) +3n
2
-2n].C
mn
p
n
q
(m-n)
pero siendo n.(n-1).(n-2) C
mn
=
= n.(n-1).(n-2) m.(m-1).(m-2).(m-3)!/(m-n)!/n/(n-1)/(n-2)/(n-3)! =
= m.(m-1).(m-2).(m-3)! /[(m-3)-(n-3)]! /(n-3)! =
= m.(m-1).(m-2) C
(m-3)(n-3)
resulta claramente
n=0...m
n.(n-1).(n-2) C
mn
p
n
q
(m-n)
= m.(m-1).(m-2) p
3
{
n=3...m
C
(m-3)(n-3)
p
(n-3)
q
(m-n)
} , y como la
expresin entre llaves vale 1, podemos poner
M
3
(P
n,m,p
) = m.(m-1).(m-2) p
3
+ 3 n
2
n=0...m
C
mn
p
n
q
(m-n)
- 2n
n=0...m
C
mn
p
n
q
(m-n)
=
= m.(m-1).(m-2) p
3
+ 3 M
2
- 2M
1
Recordando que M
1
= m.p y que M
2
= m.p.q+ m
2
.p
2
, resulta :
M
3
(P
n,m,p
) = m
3
.p
3
-3m
2
.p
3
+2.m.p
3
+ 3.m.p.q+ 3.m
2
.p
2
- 2.m.p
El momento centrado de tercer orden resulta entonces M
3centr
= M
3
- 3 M
1
M
2
+2 M
1
3
=
= m
3
.p
3
-3m
2
.p
3
+2.m.p
3
+ 3.m.p.q+ 3.m
2
.p
2
- 2.m.p - 3 m
2
.p
2
.q -3 m
3
.p
3
+ 2 m
3
.p
3
=
= -3m
2
.p
3
+2.m.p
3
+ 3.m.p.q+ 3.m
2
.p
2
- 2.m.p - 3 m
2
.p
2
.q =
= -3m
2
.p
2
(1-q) +2.m.p
3
+ 3.m
2
.p
2
- 2.m.p- 3 m
2
.p
2
.q + 3.m.p.q = 2.m.p
3
- 2.m.p + 3.m.p.q =
= 2.m.p(1-q)
2
- 2.m.p + 3.m.p.q = mpq (2q-1) = mpq (q-p)
Asimetra de la distribucin binomial
Generalmente se toma como medida de la asimetra al valor de M
3centr
= mpq (q-p) referido a una medida de la
dispersin, por ejemplo al desvo standard s=(mpq)
, es decir al cociente:
asim = M
3centr
/s = (q-p)/ (mpq)
Vemos entonces que la asimetra de una distribucin binomial reside en la diferencia entre p y q y el valor de m .
La distribucin resulta as muy asimtrica para p<< y/o m pequeo, tendiendo a una curva simtrica cuando p
y/o m es grande.
Por ejemplo es asim (P
12,n,1/6
) = (5/6 - 1/6) / (12. 5/6. 1/6)
= 0, 516
21
En cambio es menor asim (P
50,n,1/6
) = (5/6 - 1/6)/ (50. 5/6. 1/6)
= 0, 253
y mucho menor an asim (P
100,n,1/6
) = (5/6 - 1/6)/ (100. 5/6. 1/6)
= 0, 179
La distribucin de Poisson
El matemtico y fsico francs Simon-Denis Poisson, (1781-1840), dedujo a partir de la frmula de la binomial,
una distribucin discreta de gran utilidad, vlida cuando la probabilidad de un suceso p es muy pequea y el nmero
de acontecimientos m es muy grande.
Partamos de la expresin de la probabilidad binomial P(m,n,p) = m!/n!/(m-n)! p
n
q
m-n
. Haremos uso de la formula
aproximada de Stirling para el factorial m! (2 m)
m
m
.e
-m
, vlida para m grande.
Reemplazada dicha aproximacin en la anterior nos da:
P(m,n,p) = m!/n!/(m-n)! p
n
q
m-n
= (2 m)
m
m
.e
-m
/n!/ (2( (m-n))
/(m-n)
(m-n)
/e
-m+n
p
n
q
m-n
Introducimos ahora un nmero finito tal que lim
m
(mp) = (ntese que p tiende a cero cuando m tiende a infi-
nito, as que el lmite anterior es un nmero acotado)
Se puede escribir la probabilidad como:
P(m,n,p) =(mp)
n
/n!.[m/(m-n)]
m
(m-n)
/(m-n)
(m-n)
.e
-n
(1-mp/m)
(m-n)
=
=(mp)
n
/n! (1-mp/m)
m
.e
-n
[m/(m-n)]
/(1-p)
n
/(1-n/m)
m
/(1-n/m)
-n
Ahora pasemos la expresin de la probabilidad al lmite para m , para lo cual debemos recordar que
lim
m
(1+1/m)
m
= e = 2.7182...,
lim
m
(mp)
n
/n! =
n
/n!
lim
m
(1-mp/m)
m
= lim
m
{[1+1/(m /( /()]
m/(-) )
} }
() ()
= =e
lim
m
[m/(m-n)]
= 1
lim
m
(1-n/m)
m
={[1+1/(-m/n)]
m/n
}
-n
= e
-n
lim
m
(1-n/m)
n
= 1
Entonces es lim
m
P(m,n,p<<1) =
n
e
/n!
Su valor medio y varianza valen lo mismo que para la binomial : media P(m,n,p<<1) = = mp =
2
= mpq = q ya que p 0 y q 1
Ejemplo N1
Despus de pasar por un mantenimiento integral, el avin monomotor DLDL presenta un promedio de una falla
cada 10000 horas de vuelo.
Cul es la probabilidad de que en las prximas mil horas se produzcan ninguna, una, dos, tres, cuatro, cinco y seis
fallas en un DLDL recin salido del taller?
De los datos se deduce que p=0,0001; m=1000 ; = = = =m.p = 1000x0,0001 = 0, 1; n=1,2,3,4,5,6
La probabilidad pedida vale pues:
P(m,n,p) =
n
e
/n!
P(1000,n,10
-4
) = (0,1) 0,1)
n
e
0, 0,1 1
/n!
n
n
e
/n!
0 0.904837418
1 0.090483742
2 0.004524187
3 0.000150806
4 3.77016E-06
5 7.54031E-08
6 1.25672E-09
Aplicando la binomial, el resultado para n=2 es p(2) =C
1000,2
(10
-4
)
2
.(1-10
-4
)
998
= 499500.10
-8
. 0,90501=
= 0.004520544. Como se ve, la estadstica de Poisson resulta casi tan exacta como la binomial, a la vez que mucho
ms fcil de calcular.
Ejemplo N2
Una lnea de colectivos tiene un total de 50 coches. Cada unidad debe parar por inconvenientes mecnicos en pro-
medio un da cada 30 das para efectuar reparaciones. El taller cuenta con lugar para atender hasta tres colectivos
simultneamente. Determinar la probabilidad de que en un da haya ms de tres colectivos fuera de servicio, es decir
que haya unidades esperando fuera del taller.
En el caso planteado es p=1/30 ; m=50 ; =mp=5/3
Estadstica de Poisson
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
0 1 2 3 4 5 6
n
p
(
n
)
22
La probabilidad de que haya en un instante cualquiera exactamente n colectivos en reparacin es:
P(50,n,1/30) =
n
e
/n! = (5/3)
n
e
-(5/3)
/n!
La probabilidad de que haya hasta n vehculos (1, o 2, o 3,...o n) en taller en un da cualquiera es la suma de la pro-
babilidad de cada caso, de 0 a n, es decir k=1,2...n
n
e
/n!.
Y la probabilidad de que haya ms de n colectivos es la complementaria a la anterior, o sea la probabilidad de que
no haya hasta n coches en taller, es decir {1- k=1,2...n
n
e
/n!}
n
n
e
/n! k=1,2...n
n
e
/n! 1- k=1,2...n
n
e
/n!
0 0,188875603 0,188875603 0,811124397
1 0,314792671 0,503668274 0,496331726
2 0,262327226 0,7659955 0,2340045
3 0,145737348 0,911732848 0,088267152
4 0,060723895 0,972456743 0,027543257
5 0,020241298 0,992698042 0,007301958
6 0,005622583 0,998320624 0,001679376
7 0,00133871 0,999659335 0,000340665
8 0,000278898 0,999938233 6,17674E-05
9 5,16478E-05 0,99998988 1,01197E-05
10 8,60796E-06 0,999998488 1,51171E-06
De la tabla surge que la probabilidad de que en un da cualquiera haya exactamente tres vehculos en reparacin es
0,146. La de que haya hasta tres colectivos en el taller es 0,912 . Y la probabilidad de que haya alguno/s coches
esperando afuera del taller es de 1- 0,912 = 0,088
Estas probabilidades pueden traducirse a frecuencias esperadas, es decir que se esperan 0,088 posibilidades de encontrar cola de espera en el
taller en un da cualquiera . La inversa 1/0,088 =11,36 es el lapso en das en los que se producir en promedio el acontecimiento en cuestin. As
dirn los choferes, bastante enojados: Cada 11 o 12 das en promedio hay alguno que llega con el colectivo descompuesto y tiene que esperar
que se desocupe un lugar en el taller, hasta el da siguiente. Que quede bien claro que esto no significa que cada 11,36 das exactamente hay una
espera fuera del taller: se trata de promedios y bien puede ocurrir que se presenten dos das seguidos con cola, que luego se compensarn con
perodos ms largos que 11,32 das, sin que se produzcan colas.
Cuestin: Qu significa la probabilidad 1-p(3) = 1-0,146 = 0,854? Respuesta: es la probabilidad de que no haya exactamente tres vehculos en
taller: incluye pus los casos en los que hay 0, 1 o 2 o ms de tres.
La distribucin normal de Gauss
Para m y n grandes, la binomial se transforma en la famosa distribucin acampanada que Carl Friedrich Gauss
(1777-1855) aplicara en la teora de errores, y que se basa en el teorema de Jacobo Bernouilli (1655- 1705) que
expondremos a continuacin.
Teorema de Bernouilli
Partiendo pus como antes, de la expresin de la probabilidad binomial P(m,n,p) = m!/n!/(m-n)! p
n
q
m-n
. haremos
uso de la formula aproximada de Stirling para el factorial m! (2 m)
m
m
.e
-m
, y tambin, haciendo la suposicin
de que n y (m-n) son tambin nmeros bastante superiores a la unidad, ser adecuado poner n! (2 n)
n
n
.e
-n
. y
tambin (m-n)! (2 (m-n))
(m-n)
(m-n)
.e
-(m-n)
Reemplazadas dichas aproximaciones en la frmula de la binomial resulta:
P(m,n,p) = m!/n!/(m-n)! p
n
q
m-n
= (2 m)
m
m
.e
-m
/[(2 n)
n
n
.e
-n
]/[(2 (m-n))
(m-n)
(m-n)
.e
-(m-n)
]p
n
q
m-n
=
= m
m
m
.e
-m
/ [n
n
n
.e
-n
]/(2 (m-n))
/(m-n)
(m-n)
/e
-(m-n)
p
n
q
m-n
= m
m
m
/(2 (m-n) m)
(p/n)
n
(q/(m-n))
m-n
Llamando a=n , b=m-n es a+b=m la anterior queda:
P(m,n,p) = (m
/(2 ab)
) (mp/a)
a
(mq/b)
b
Ahora bien, teniendo en cuenta que el mximo de probabilidad P
mx
se produce en una binomial cuando n=mp=a y
consecuentemente cuando m.q=m(1-p)=m-mp= m-a =b, entonces a.b= m
2
pq y as resulta P
mx
= (m
/(2 ab)
) =
(1/(2 mpq)
) (mp/a)
a
(mq/b)
b
Fuera del punto de mxima probabilidad, la variable a se puede poner en base un parmetro x tal que
a =mp+m
x y por lo tanto b = m-a = m-mp-m
x = mq-m
x
Resulta as que la nueva variable x=(n mp)/m
) exp(-x
2
/2/p/q)
Recordando que mpq =
2
es la varianza de la dis-
tribucin, y que x=(n M
1
)/m
es una variable
reducida al centro de la distribucin, podemos ex-
presar la frmula anterior en base a una nueva va-
riable y que reduzca la variable original n al centro
mp y tenga varianza unitaria, haciendo y
2
= x
2
/p/q =
(n M
1
)
2
/(mpq) = (n M
1
)
2
/
2
con lo cual es:
P(y) = (1/(2 )
) exp(-y
2
/2)
En los grficos adjuntos se representan acuerdo al clculo que figura en la planilla, las siguientes funciones para
y=(x M
1
)
2
/
2
con M
1
=8 ;
2
=2
f(x) = (1/(2 )
) exp(-(x M
1
)
2
/
2
/2)
acum f(x) = F(x) =
o
x
f(x).dx
f(y) = (1/(2 )
) exp(-y
2
/2)
acum f(y) = F(y) =
y=-7
y
f(y).dy
y=-
y
f(y).dy
La distribucin normal f(y) proviene, como demuestra el teorema de Bernouilli recin visto, de una distribucin de
pruebas repetidas tipo binomial discreta, cuando tanto el nmero de pruebas m como el de aciertos n tienden a valo-
res muy grandes. En tal caso, la variable y y la funcin de probabilidad f(y) son continuas, es decir que pueden to-
mar valores no slo enteros o fraccionarios sino reales cualesquiera.
La funcin acumulada F(b)-F(a) =
a
b
f(y).dy para y=(x-M
1
)/ , representada por el rea bajo la curva f(y) entre
abscisas y=a e y=b, significa la probabilidad de que el fenmeno de probabilidad p, media M
1
y desvo standard
est entre lmites a y b. La integral f(y).dy no tiene una funcin primitiva F(y) expresable analticamente. Su valor
se calcula por mtodos numricos . Sin embargo, se puede demostrar analticamente que F(- )-F( ) =1, cosa que
era de suponer, ya que ella representa todas las posibilidades de ocurrencia. Por ltimo, digamos que f(y) tiene un
Normal M=8 ,
2
=2
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
x
funci n de densi dad probabi l i dad acumul ada
Normal reducida M=8 ,
2 2
=2
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
-7 -6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8
y = (x- M )/ s
funci n de densi dad probabi l i dad acumul ada
x f[(x-M)/ ) F(x)=acum f(x) y=(x-M)/ f(y) F(y)=acum f(y)
0 6.70491E-05 3.1753E-05 -5.656147143 5E-08 3.18728E-08
1 0.000437106 0.00023311 -4.949040362 2E-06 7.25104E-07
2 0.00221925 0.001352185 -4.24193358 5E-05 1.88613E-05
3 0.008775111 0.006218449 -3.534826799 8E-04 0.000309287
4 0.027022489 0.022777071 -2.827720018 0.007 0.003170799
5 0.064807377 0.066872012 -2.120613237 0.042 0.020647942
6 0.121045855 0.158776275 -1.413506456 0.147 0.087476879
7 0.176076655 0.308713588 -0.706399674 0.311 0.24931995
8 0.199471115 0.500199472 0.000707107 0.399 0.500270043
9 0.175988639 0.691638478 0.707813888 0.311 0.751110289
10 0.12092487 0.841465695 1.414920669 0.147 0.912739735
11 0.064710239 0.933257506 2.12202745 0.042 0.979420296
12 0.026968498 0.97727692 2.829134232 0.007 0.996842507
13 0.008753201 0.993799079 3.536241013 8E-04 0.999692324
14 0.002212603 0.998652247 4.243347794 5E-05 0.999981284
15 0.000435578 0.999767763 4.950454575 2E-06 0.999999311
24
mximo en y=0, es lim
y
f(y)=0, y que es simtrica con respecto al eje de ordenadas, cosa que no slo se deduce
matemticamente al obtener f(y)=f(-y) , sino porque sabemos que como la binomial de la que se deriva, tiende a ser
simtrica en la medida que el nmero de casos m tiende a infinito. Adems debe tenerse presente que la variable
reducida y=(x-M
1
)/ tiene media nula y desvo standard unitario.
Teora de errores
Cuando se efectan varias mediciones de una misma magnitud, se
genera en general una serie de cifras que no coinciden exactamente.
Estas diferencias con el verdadero valor, se deben a varias causas. Por
ejemplo, a errores de operacin: no hacer coincidir bien los orgenes
de la regla y el objeto a medir, o no fijarse bien si el extremo est bien
alineado con una u otra rayita de la regla. Cuando se mide una longi-
tud mayor a la de la regla, se cometen errores si no se alnean debida-
mente las posiciones sucesivas de sta sobre el objeto. Un error de
operacin tpico es el de paralaje: cuando la divisin de la regla est
alineada con una visual no perpendicular a la dimensin que se desea
medir. En general, estos errores (que se llaman sistemticos) se pueden
detectar y corregir o controlar. Sin embargo, se llega a un punto en que
la eliminacin de esos factores sistemticos o controlables, deja un
residuo de errores incontrolables o si se prefiere regidos por lo que
denominamos oportunamente como procesos azarosos . Dichos
errores se llaman accidentales.
Los errores accidentales estn sujetos a las siguientes leyes experimentales:
a) Los errores accidentales son tanto ms frecuentes cunto ms pequeos.
b) Su promedio numrico tiende a cero al aumentar el nmero de observaciones.
c) El nmero de errores superior a cierto nmero es sensiblemente nulo.
Los puntos a), b) y c) anteriores estn contenidos en la afirmacin de que los errores accidentales se distribuyen
segn una funcin normal como la recin estudiada. Por ser Gauss quin descubri semejante cosa, la distribucin
expresada por la frmula de Bernouilli se llama generalmente curva de Gauss.
Ejemplo:
Se efectan ciento noventa y ocho mediciones del largo de un perno, que arrojan los siguiente valores (cm):
19,98 20,25 20,15 19,65 20,09 19,92 20,02 20,11 19,76
20,21 20,18 19,98 19,79 19,98 19,97 19,94 20,19 19,88
20,03 19,96 19,97 19,90 20,04 19,88 20,12 19,95 20,27
19,75 19,83 19,89 20,23 20,04 19,92 20,08 19,97 19,64
20,19 19,83 19,80 19,94 19,90 19,80 19,97 19,94 19,91
19,96 20,16 19,94 20,03 19,73 20,33 20,21 20,01 20,14
19,80 20,09 19,60 20,38 19,84 20,01 19,93 20,09 19,91
19,89 20,34 19,92 19,88 19,93 20,03 20,09 20,07 20,24
19,99 20,02 19,88 19,91 19,95 20,09 19,84 19,98 20,02
20,16 19,91 19,93 20,08 20,16 19,95 19,89 19,77 20,07
19,86 20,14 20,25 19,88 20,10 20,26 20,04 20,08 19,74
19,59 20,08 20,06 20,24 19,86 19,96 20,11 19,92 20,28
20,15 20,11 19,81 20,29 20,20 19,74 19,96 19,93 19,93
19,95 20,03 20,11 20,10 20,21 19,87 19,81 20,13 19,86
20,09 20,21 19,83 19,64 19,90 19,96 20,13 20,18 19,92
19,81 19,86 19,94 19,73 19,97 20,11 19,72 20,02 20,03
19,97 19,57 20,14 20,22 20,28 20,28 20,01 20,12 20,03
20,34 19,86 20,11 19,84 19,79 20,26 19,83 19,97 19,80
19,89 19,91 19,93 19,87 19,82 19,94 20,03 19,71 20,06
20,17 20,29 19,93 19,88 19,85 20,01 20,01 19,97 19,92
20,02 20,01 20,08 20,09 19,94 19,86 20,03 20,24 20,27
20,04 20,08 19,72 20,11 19,74 20,03 20,17 20,06 19,94
La media es M
1
=19,99 cm y el desvo standard = 0,16 cm
A continuacin se representan el histograma real, y la comparacin entre funciones experimental y normal
ERROR DE PARALAJE:
Cunto mide el lpiz?
Comparacin de distribuciones
0
0, 05
0,1
0, 15
0,2
0, 25
0,3
0, 35
0,4
0, 45
-4 -2 0 2 4
variable reducida
Normal Experi mental
Distribucin de mediciones
0
10
20
30
40
50
60
1
9
.
5
5
1
9
.
6
1
9
.
7
1
9
.
8
1
9
.
9
2
0
2
0
.
1
2
0
.
2
2
0
.
3
2
0
.
4
2
0
.
5y
clase
f
r
e
c
u
e
n
c
i
a
DATOS DEL
HISTOGRAMA
Clase Frecuencia
19.55 0
19.6 3
19.7 3
19.8 17
19.9 33
20 48
20.1 44
20.2 26
20.3 20
20.4 4
20.5 0
25
Como se v, ya con 198 mediciones la distribucin real de valores adopta una ley relativamente cercana a la normal.
Para cuantificar esta comparacin, vale el siguiente problema:
Qu probabilidad hay de que alguna medicin caiga afue-
ra de un intervalo a= M
1
- = 19,99-0,16 = 19,83 cm ;
b=M
1
+ = 19,99+0,16 = 20,15 = 19,99+0,16 = 20,15 cm . .
Pasando los lmites a y b a valores de variable reducida,
stos se transforman en:
y
a
= (a-M1) / = -1 y en y
b
= (b-M1) / = +1
Las lneas verticales de los grficos anteriores, marcan
estos lmites.
La solucin analtica a tal problema pasa por calcular la
integral definida
-1
1
f(y).dy (que da la probabilidad de que
la medicin caiga dentro del intervalo ( + ), y restarla
de la unidad, ya que lo que se pide es precisamente la pro-
babilidad de que caiga afuera del intervalo.
Del grfico de arriba sale F(-1) = 0,16 y F(+1) = 0,84, de tal manera es
-1
1
f(y).dy = 0,84- 0,16 = 0,68 y entonces la
probabilidad buscada es 1-0,68 = 0,32
Es decir que si los valores se distribuyeran exactamente en forma normal alrededor del 32 % de ellos estaran fuera
del intervalo ( a +) ). Ahora bien, en los datos del cuadro se cuentan 36 valores mayores que 20.15 cm y 29 me-
nores que 19.83 cm, lo que da una frecuencia de 65/198 = 0,33 = 33% . Si bien algo asimtrica, la distribucin real
coincide casi exactamente con la distribucin normal en el nmero de valores fuera del intervalo.
Poblaciones y muestras
Consideremos ahora que los 198 valores de la tabla anterior no son producto de las medidas de la longitud en cm de
un solo objeto sino que son la coleccin de mediciones sobre 198 objetos distintos, en nuestro caso el dimetro en
mm de pernos del mismo tipo que salen de una mquina automtica durante un cierto lapso. La media resulta enton-
ces de 19,99 mm y el desvo standard es de 0,16 mm
Estamos autorizados a usar la misma serie de antes en este nuevo ejemplo pues la experiencia muestra que se genera
tambin en estos casos una distribucin de tipo Gaussiano, del mismo tipo que la estudiada en los errores de obser-
vacin. Y ello no es de extraar, ya que parecidos factores de azar a los que gobiernan la toma de medidas sucesivas
de un slo objeto son los que tambin afectan las verdaderas medidas de una serie de objetos obtenidos por un pro-
ceso de produccin esencialmente igual, aunque no idntico debido a que tiene desajustes aleatorios en el tiempo.
Igual que en el campo de las mediciones sucesivas, hay aqu factores previsi-
bles, por ejemplo los generados por desgaste de la herramienta de corte, que
seran equivalentes a los errores sistemticos en el campo de las mediciones.
Tambin efectos casuales, anlogos a los errores accidentales y por tanto fuera
del control inmediato. Pertenecen a ste ltimo tipo por ejemplo las diferencias
provenientes del huelgo en el cojinete del plato del torno, o el juego del carro
del portaherramienta. Tambin la granulometra del metal del perno, que condi-
ciona el grado de tersura del maquinado puede considerarse fuente de error
casual. Los mecnicos califican a estas variaciones aleatorias como dentro del
margen de tolerancia del proceso, cuando son inherentes a la precisin de los medios de fabricacin y los materia-
les usados. El valor del intervalo +() = 2 +() = 2 alrededor de la media , que es el que agrupa aproximadamente el
68% de las piezas, tiene que estar en relacin con la tolerancia admitida por las normas de fabricacin.
Los estadsticos consideran que todo lote de elementos del mismo tipo, y/o la coleccin de mediciones correspon-
dientes, pertenecen a una parte o muestra de una poblacin de un nmero prcticamente infinito de elementos que
es total o universo. Por ser ilimitado, se puede considerar al universo con una distribucin normal, por lo que se le
pueden aplicar, en base al principio de los grandes nmeros, las nociones de probabilidad matemtica. En cambio
en las muestras finitas que pueden llegar a representar en mejor o peor medida a ese total prcticamente ilimitado, se
toma a la frecuencia experimental como representante estimado de esa probabilidad.
Normal reducida M=8 ,
2 2
=2
0
0. 1
0. 2
0. 3
0. 4
0. 5
0. 6
0. 7
0. 8
0. 9
1
- 7 - 6 - 5 - 4 - 3 - 2 - 1 0 1 2 3 4 5 6 7 8
y = ( x- M ) / s
funci n de densi dad pr obabi l i dad acumul ada
Huelgos y juegos en un torno como
fuentes de diferencias aleatorias
26
Una muestra del universo se considera representativa del mismo cuando est extrada con una tcnica que no privi-
legie ninguna condicin en especial. Por ejemplo, si se trata de un lote de pernos que yacen en un montn, stos
sern tomados al azar, cuidando que no sean todos de una zona localizada del montn, ni del principio o del final del
perodo si la muestra se toma durante la fabricacin. Esto garantiza que la muestra no reproduzca o contenga infor-
macin sobre una eventual estratificacin por tamao al hacer el montn, o que refleje el estado del equipo que
puede presentar un desajuste progresivo. Si la muestra es de un chorro de material a granel, (por ejemplo maz que
cae desde la noria a un silo) se previene la clasificacin por gravedad que pueda ocurrir en la cada: el flujo se parte
y se recombinan sus partes convenientemente. De una gran cantidad de valores, se elegir la muestra tomando stos
al azar como un extracto de la serie original.
Se comprende que una muestra sea ms representativa del total cunto ms elementos contenga. En el lmite infe-
rior, una muestra de muy pocos individuos puede no contener la informacin mnima necesaria para caracterizar las
propiedades del universo de dnde proviene. Resulta claro as que no escapa el muestreo a los conceptos de la teora
de la informacin de seales.
Las muestras individualmente presentan medias y desvos standard parecidos a los del universo de donde provienen,
tendiendo a estos valores en la medida de que su nmero de elementos aumente.
Media de medias de las muestras
Diversas muestras cuyas medias sean m
mi
, pertenecientes a un mismo universo de media m
1
debern lgicamente
presentar una media de medias igual a m
1
, ya que al agrupar los datos en varios lotes no se cambia el promedio
general. Se puede prever que la distribucin de esas medias individuales es tambin normal, considerando al grupo
de individuos de cada muestra como un elemento (aunque ms complejo) del total, que no escapa a la ley de distri-
bucin de ste.
Desvo standard de la media de las muestras
En cunto a la dispersin de resultados de la media de muestras, se comprende intuitivamente que al ser ella una
condensacin o resumen de la poblacin total, su desvo standard debe ser menor que el de sta. Veremos a conti-
nuacin cunto menos.
Sean f(x) los valores de la densidad de probabilidad para un universo normal, de media m y desvo . Sabemos que
f(x) = (1/(2 )
) exp(-(x m)
2
/
2
/2).
La distribucin de la variable x
i
dentro de una muestra de N elementos de media m
i
y con desvo igual al del uni-
verso, se llama distribucin muestral y vale f(x
i
) = (1/(2 )
) exp(-(x
i
m
i
)
2
/
2
/2).
Considerando que la distribucin de la variable suma de variables x
i
normales es tambin normal, siendo cada va-
riable individual de la forma f(x
i
) = (1/(2 )
) exp(-(x
i
)
2
/
2
/2) (tomando una distribucin centrada es decir con
m
i
=0), y para
i= =1..N
x
i
= N. m
x
se podr tomar como probabilidad de una suma de sucesos independientes el producto
de las probabilidades individuales, esto es f(
i= =1..N
x
i
) = f(x
1
).f(x
2
)....f(x
N
) = [1/(2 )]
N/2
exp(-N.x
i
2
/
2
/2) =
f(N. m
x
) = [1/(2 )]
N/2
exp(-x
i
2
/
2
/2/ N)
Queda demostrado entonces que si estn extradas al azar, el desvo de las medias m
x
de muestras de N elementos es
m
= /N
o
s