You are on page 1of 84

3

V Bolshakov
P.Gaidyev




Teora de la
Elaboracin matemtica de
Mediciones geodsicas













Editorial Mir Mosc



4
INDICE

PRIMERA PARTE

TEORIA DE LOS ERRORES DE MEDICIN

Capitulo I. Elementos de la teora de las probabilidades

1. Objeto de la teora de las probabilidades 14
2. Sucesos 14
3. Frecuencia relativa y probabilidad de un suceso 15
4. Suma de probabilidades 18
5. Sucesos de probabilidades 22
6. Producto de probabilidades 24
7. Distribucin de las probabilidades en ensayos mltiples 25
(Distribucin binomial).
8. El nmero ms probable de apariciones de un suceso en ensayos 33
Mltiples.
9. Ley del lmite de Moivre Laplace (Ley normal de 35
distribucin de las probabilidades en ensayos mltiples).
10. Integral de probabilidades 45
11. Variables aleatorias. 52
12. Leyes de distribucin de variables aleatorias 54
13. Caractersticas principales (parmetros de distribucin 57
de una variable aleatorias.
14. Ley normal de distribucin de variables aleatorias 67
15. Sobre algunas distribuciones que difieren de la normal 72
16. Nocin sobre las distribuciones multidimensionales de sistemas
De variables aleatorias independientes. 77
17. Leyes del lmite 78

Capitulo II. Elementos de estadstica matemtica

18. Mtodo maestral 83
19. Caractersticas complementarias de los muestreos 85
20. Estimacin del valor aproximado de los muestreos 89
21. Estimacin del valor emprico de la varianza 94
22. Comparacin de la distribucin emprica con la terica 96
23. Concepto de enlace estadstico 98
24. Coeficiente de correlacin 99
25. Propiedades del coeficiente de correlacin. Ecuacin de regresin 100

Capitulo Ill Fundamentos de la teora de errores de medicin

26. Tareas de la teora de errores de medicin 105
27. Nociones generales sobre las mediciones 106
28. Errores de medicin 108
29. Clasificacin de los errores de medicin 110
5
30. Criterios para estimar la precisin de las mediciones 113
31. Errores absolutos y relativos 117
32. Estimacin de la precisin del valor aproximado del error
estndar m

. 118
33. Studio de series de mediciones 120
34. Parmetros de la ley de distribucin de los errores de medicin 126
35. Errores estndares de las funciones de magnitudes medidas 127
36. Errores de redondeo 138
37. Influencia de los errores de redondeo de los argumentos sobre
la precisin de las funciones. 139
38. Errores sistemticos de medicin 141
39. Algunas recomendaciones para aminorar la influencia de los
errores sistemticos de medicin. 146

Capitulo IV Elaboracin matemtica de mediciones de una misma
magnitud

40. El valor ms fiable de una magnitud medida reiteradamente y
con igual precisin y estimacin de su precisin 149
41. Secuencia de elaboracin de las mediciones de igual precisin de
una misma magnitud. 154
42. Valor ms fiable de una magnitud medida reiteradamente y
Con diferente precisin 159
43. Nociones generales acerca de los pesos. Error de la unidad de peso 163
44. Clculo de los pesos de funciones 164
45. Anlisis de una serie de mediciones de diferente precisin 168
46. Clculo del error de la unidad de peso 168
47. Establecimiento de los lmites de confianza (cotas confidenciales)
en el caso de mediciones de diferente precisin 174
48. Secuencia de elaboracin de mediciones de diferente precisin
de una misma magnitud 174
49. Estimacin de la precisin por diferencias de mediciones dobles
de igual precisin 177
50. Estimacin de precisin por diferencias de mediciones dobles
de diferente precisin 180
51. Ejemplos de estimacin de la precisin segn las diferencias de
mediciones dobles 182
52. Tolerancias para los resultados de las mediciones y de sus
funciones 188

SEGUNDA PARTE

MTODO DE LOS MINIMOS CUADRADOS

Capitulo V. Fundamentos del mtodo de los mnimos cuadrados

53. Esencia del problema de compensacin conjunta de varias
magnitudes 193
6
54. Principio de los mnimos cuadrados 196
55. Procedimientos bsicos de solucin de la tarea de compensacin 199
56. Mtodo paramtrico de compensacin 202
57. Ejemplos de compensacin por mtodo paramtrico 209
58. Mtodo correlativo de compensacin 219
59. Ejemplos de compensacin por el mtodo correlativo 224
60. Acerca de la estimacin de la precisin a base de materiales de la
compensacin 229

Capitulo VI. Formacin y solucin de las ecuaciones normales

61. Clculo de los coeficientes de las ecuaciones normales 237
62. Resolucin de las ecuaciones normales 244
63. Esquemas completo y abreviado para solucionar las ecuaciones
normales por el algoritmo de Gauss 256
64. Mtodo de los cracovianos 261
65. Solucin de las ecuaciones por el mtodo de iteracin simple 266

Capitulo VII. Mtodos para el clculo de pesos de funciones. Ejemplos de
compensacin con estimacin de precisin

66. Clculo de pesos de funciones en la compensacin por el mtodo
Paramtrico 269
67. Ejemplos de compensacin por el mtodo paramtrico con
estimacin de precisin 281
68. Clculo de pesos de funciones en la compensacin por el mtodo
correlativo. 296
69. Ejemplos de compensacin por el mtodo correlativo con
estimacin de precisin. 302

Capitulo VIII. Modificaciones a los mtodos fundamentales de
compensacin.

70. Mtodos de grupo para resolver la ecuaciones condicionales 310
71. Mtodos combinados de compensacin 330

Capitulo IX. Interpolacin (aproximacin) segn los valores medidos de la
funcin.

72. Interpolacin de funciones dadas con parmetros desconocidos 344
73. Mtodo de Chbyshey 351

Capitulo X. Clculos compensatorios para un nmero grande de
incgnitas

74. Planteo y solucin de sistemas grandes de ecuaciones normales 359
75. Mtodo de aproximaciones 371
76. algunas cuestiones acerca de la estimacin de precisin 375
7
77. compensacin de funciones de resultados de mediciones 385

Apndices 390

Bibliografa 396











































8
INTRODUCCION




Las mediciones desempean un papel muy importante en todas las reas de la
tcnica proporcionando la informacin de partida a las ciencias exactas.
Las mediciones son base del estudio cartogrfico y geodsico de la superficie
terrestre y de otros planetas y los mtodos y medios de medicin desarrollan
por la geodesia, astronoma prctica, gravimetra, fotogrametra, geodesia
espacial y otras ciencias.
La medicin de cualquier magnitud se analiza desde dos puntos de vista:
cuantitativo que refleja el valor numrico de la magnitud medida y cualitativo
que caracteriza la precisin de la medicin.
Con el desarrollo de la ciencia y de la tcnica, en particular de la geodesia, se
eleva la precisin de las mediciones y se perfeccionan los mtodos de su
elaboracin matemtica.
En las mediciones no deben haber equivocaciones ni descuidos, o, como suele
decirse, errores graves. Para evitar estos ltimos, en la prctica geodsica
siempre se efectan no menos de dos mediciones de cada magnitud y,
adems, se recurre a las dependencias matemticas entre las magnitudes
medidas (Por ejemplo, la igualdad a 180 de la suma de los ngulos en un
tringulo plano, la igualdad a cero de la suma de los desniveles en un polgono
de nivelacin cerrada, etc.).

Se sabe, por experiencia, que aun en el trabajo ms cuidadoso y esmerado las
mediciones mltiples (repetidas) de cualquier magnitud constante presentan
siempre resultados diversos, y los resultados de la medicin de magnitudes
enlazadas entre s matemticamente presentan ciertos errores de cierre

. El
orden de la magnitud de los errores de cierre y de las divergencias entre los
resultados de las mediciones repetidas debe corresponder a la precisin de las
mediciones, lo cual s indicio de la ausencia de errores graves en las
mediciones.

La circunstancia de que, a un al no haber errores graves, los resultados de las
mediciones repetidas siempre divergen entre s dentro de ciertos lmites, se
debe a que cualesquiera mediciones siempre acarrean consigo pequeos
errres inevitables, es decir, ciertas desviaciones de los resultados de las
mediciones con respecto a los valores exactos de las magnitudes medidas
(errores de observacin, los relacionados con imperfecciones en la fabricacin
y ajuste de los instrumentos, insuficiencias en la consideracin de las
condiciones de medicin incesantemente variables, etc.



Si la dependencia entre las magnitudes medidas se expresa por medio de la igualdad


( X
1
,.X
n
) = 0, entonces el error de cierre W quedar definido por la igualdad W = ( X
1
,.X
n
)
donde X
n
son los resultados de las mediciones.
9



Es por ello que stos (es decir, los errores inevitables, N. de los A.) siempre
estn presentes en las mediciones, pero, dentro de los posible, habr que
debilitar su influencia sobre los resultados obtenidos gracias a una ingeniosa
combinacin.

).

En lo que se refiere a la precisin de las mediciones y de su elaboracin
matemtica, hay que prestar atencin a una importante circunstancia. Sin
entrar, por ahora, a tratar los procedimientos de estimacin numrica de la
calidad de los resultados de mediciones, a priori puede afirmarse que los
resultados que contienen errores menores infunden ms respecto a quienes
aprovechan estos resultados. Partiendo de esto, en ocasiones se imponen
exigencias exageradas a la precisin de las mediciones, lo que no corresponde

K. Gauss. Obras escogidas, tomo I. Mosc, Geodezizdat, 1957, pg. 18 (en ruso)
10
a la necesidad ni a las posibilidades reales. Sin embargo, una precisin
excesiva en las mediciones es indeseable al igual que una precisin
insuficiente, ya que conduce a un aumento en el volumen y en los plazos de
realizacin de los trabajos y de su costo. Por esta razn es preciso determinar
la precisin conveniente, es decir, la necesaria y suficiente, en las mediciones y
en la elaboracin de sus resultados.

El estudio de la calidad de las mediciones geodsicas, de las leyes de
aparicin e influencia de los errores pequeos inevitables, la elaboracin de
reglas y mtodos para estimar y realizar cmputos con la precisin necesaria
de los mtodos que permitan obtener, con gastos mnimos en el clculo, los
mejores resultados finales, todo esto, pues constituye la tarea la plantea la
teora de la elaboracin matemtica de las mediciones geodsicas.

La estructura lgica del libro se muestra en la fig 1. . Consta de dos partes:
teora de los errores de medicin y mtodo de los mnimos cuadrados. Ambas
partes se basan en elementos de la Teora de las probabilidaes como
asignatura independiente, no se estudia en los centros de enseanza de
educacin superior geodsicos y es slo un pequea parte del curso de
matemtica superior en los centros de enseanza superior tcnicos.
Los autores han tendido a tomar en consideracin los logros de la escuela
geodsica sovitica en lo que atae a los mtodos y la metodologa de exponer
el mtodo de los mnimos cuadrados, apoyndose en las obras de K. Gauss..

Puede preguntarse por qu el nombre tradicionesl de la disciplina Mtodo de
los mnimos cuadrados se ha sustituido por el de Teora de la elaboracin
matemtica de las mediciones geodsicas . Para responder a tal pregunta, hay
que remitirse a la estructura lgica del libro, de donde se deriva la necesidad de
dicho cambio. El mtodo de los mnimos cuadrados, propuesto por Legendre y
Gauss, durante ms de 160 aos de su aplicacin ha sido probado en la
prctica en todos sus aspectos y ha recibido y recibe an, nuevo desarrollo. A
pesar de ello, para formar especialistas altamente calificados en la rama de la
elaboracin matemtica de mediciones geodsicas, no basta slo con el
mtodo de los mnimos cuadrados. A esta conclusin llegan numerosos
geodesias.

Los fundamentos del mtodo de los mnimos cuadrados y de la teora de los
errores de medicin fueron elaborados a fines del siglo XVIII y comienzo del
XIX. En aquel tiempo , en la astronoma y en la geodesia mejor sensiblemente
la precisin de las mediciones en la geodesia mejor sensiblemente la
precisin de las mediciones y se acumul un amplio material de observaciones
que requeran ser elaborados con ayuda de mtodos que diesen lo mejores
resultados. Las tareas de la astronoma terica y prctica y de la geodesia
exigan la creacin de un mtodo cientficamente fundamentado de la
elaboracin matemtica de los resultados de las mediciones.
Respondiendo a los requerimientos de la ciencia y de la prctica, los cientficos
promovieron una serie de proposiciones. En el siglo XVIII, destacados
astrnomos y matemticos de la poca, entre ellos el miembro de la Academia
11
rusa de Ciencias Leonardo Euler ( 107 1783). L Lamber (1728-1777), P.
Laplace (1749-1833) y otros, ofrecieron diversos mtodos, pero ninguno de
ellos encontrn aplicacin debido a su complejidad.

En 1806, el matemtico francs A. Legendre ( 1752 1833) public su obra
Nuevos mtodos para determinar las rbitas de los cometas, en la cual
propona ( para la elaboracin matemtica de los resultados de las
observaciones) el mtodo de los mnimos cuadrados, ilustrndolo con un
ejemplo de geodesia ( Clculo de las dimensiones de la Tierra a base de las
mediciones de los grados (ngulos barridos N. de la R. )).

En 1809, K. Gauss ( 1777-1855) publico su obra Teora del movimiento de
los cuerpos celestes que giran alrededor del sol en secciones cnicas, en la
cual propona, para la elaboracin matemtica de las observaciones, el mtodo
de los mnimos cuadrados. En esta obra Gauss desarrollan brillantemente el
aspecto algebraico del mtodo de los mnimos cuadrados. Basta con decir que
las designaciones y la simblica introducidas por l tienen vigencia aun en
nuestros das. Esta circunstancia permite considerar a Gauss, junto con
Legendre, el fundador del mtodo de los mnimos cuadrados.
En 1810 el matemtico y astrnomo francs Laplace, empleando los resultados
obtenidos por Moivre (1667-1754), dedujo la frmula que permite calcular las
probabilidad de apariciones de sucesos aleatorios en pruebas repetidas. Esta
frmula ampli considerablemente las posibilidades de aplicacin de la teora
de la probabilidad en la prctica y , en particular, en la elaboracin de
resultados de las mediciones.

La teora de las probabilidades tuvo un avance vertiginoso gracias a las obras
de matemticos rusos tales como los acadmicos P. Chbyshev (1821 1894),
A. Mrkov (1856 1922) y A. Liapunov (1857 1918).
Las obras de chbyshev, Mrkov y Liapunor fueron continuadas y
desarrolladas por los cientficos soviticos S. Bernetin. A. kolmogorov, A.
Jinchin, N. smirnov, V Romanvsky, Yu. Linnik, B. Gnedenko y otros, creadores
de la escuela vanguardista sovitica de la teora de las probabilidades y
estadstica matemtica.

En la geodesia el mtodo de los mnimos cuadrados encontr un empleo
especial slo a partir de mediados del siglo WLW tras la aparicin de una seri
de guas para su empleo prctico. La primera gua prctica de este gnero ha
sido publicada primeramente en Rusia en los aos 183-1837 por el geodesta
militar A. Blotov. En Alemania, una gua similar fue publicada, por vez primera,
slo en 1843.
Han sido principalmente los astrnomos y geodestas los que se han encargado
de elaborar el mtodo de los mnimos cuadrados con arreglo a la geodesia., De
entre los cientficos extranjeros cabe destacar en primer trmino a los sabios
alemanes F. Bessel ( 1784 18469, F. Helmert ( 1843 1917), O. Schreiber, L.
Krger.
En Rusia el mtodo de los mnimos cuadrados aplicado a la geodesia tuvo
amplia divulgacin. El acadmico A. Svich ( 1811-1883) edit en 1857 su obra
12
Aplicacin de la teora de probabilidades al clculo de las observaciones y
mediciones geodsicas. Inmediatamente despus de su aparicin, la obra fue
traudicida al alemn y editada en Alemania. En Rusia trabajaron tambin en la
elaboracin de los mtodos y procedimientos de compensacin geodestas
militares, entre ellos el profesor I. Pomerntsev ( 1847 1922), el profesor V.
Vitkovsky ( 1856 1924) y otros.

La compensacin de extensas redes geodsicas exiga la elaboracin terica y
prctica de nuevos procedimientos de compensacin que simplificaran muchos
los clculos sin menoscabo del rigor en la solucin del problema . Deben
mencionarse los trabajos de los geodestas soviticos , en primer lugar del
profesor F. Krasovsky ( 1878 1948), miembro correspondiente de la
Academia de Ciencias de la URSS, y del profesor N. Urmyev ( 1895 1959),
creadores de los mtodos de elaboracin de la red astrnomo geodsica de
la URSS. Los mtodos propuestos por Krasovsky y Urmyev, simples y a la
vez suficientemente rigurosos, permitieron resolver la tarea de formar una base
geodsica entera de alta calidad. En esta tarea, cuenta tamben con grandes
mritos el docente D. Larin, quin dirigi los trabajos del clculo en la
elaboracin de las redes bsicas de la URSS a lo largo de muchos aos.

En la solucin de la tarea de elaborar las redes geodsicas que rellenan los
plgonos de primer orden, es importante el mrito del geodesta militar I.
Guersimoy e del ingeniero I. Pranis Paranivich, quienes en colaboracin
con colectivos de calculistas crearon prodemientos efectivos de compensacin
de las extensas redes de relleno y crearon guas fundamentales para el clculo
de triangulaciones, en las cuales resumieron la experiencia del clculo de
muchos aos de los geodestas rusos y soviticos.
Mucho se debe en la rama de la elaboracin matemtica de los resultados de
las mediciones a la Personalidad Emrita de Ciencia y la Tcnica, profesor A.
Checotariov, que ha escrito las quas ms populares del mtodo de los
mnimos cuadrados entre los geodestas soviticos. Pueden mencionarse
asimismo sus obras en la rama de compensacin de polgonos. Grandes
mritos en la creacin de diversos mtodos de elaboracin matemtica de los
resultados de las mediciones los tienen los profesores N. Idelsn, N Kell y V.
Popov y otros.

La amplia introduccin de modernos ordenadores en todas las ramas de la
ciencia abre nuevas posibilidades de desarrollo de los mtodos de clculo de
compensacin y, en particular, de la elaboracin de extensas redes
geodsicas.

El manual Teora de la elaboracin matemtica de las mediciones geodsicas
que se propone al lector no pretende agotar ni exponer todas las cuestiones
por l abordadas. Adems, en la exposicin de los fundamentos de la teora de
la probabilidad y de la estadstica matemtica, los autores se han limitado tan
slo a las nociones ms elementales, las que, sin embargo, en su aplicacin a
la geodesia, permiten, en opinin de los autores, crear con suficiente rigor una
teora de la elaboracin matemtica de las mediciones geodsicas que asegure
13
una precisin dada de los clculos. As, por ejemplo, en los clculos
probabilsticos de geodesia, en la gran mayora de los casos basta con
asegurar dos o como mximo tres cifras significativas, ya que tales cmputos,
por lo general, se refieren no a los resultados de las mediciones, sino a sus
errores. Por consideraciones comprensibles, los autores no han hallado posible
ni necesario detenerse en el anlisis de las diferentes interpretaciones de las
nociones y definiciones de la teora de las probabilidades, por lo que han citado
slo aquellas que en una exposicin elemental resulten ms comprensibles y
claras y permitan resolver la tarea propuesta.




PRIMERA PARTE
TEORIA DE LOS ERRORES DE MEDICION

Capitulo I

ELEMENTOS DE LA TEORIA DE LAS PROBABILIDADES

1. Objeto de la teora de las probabilidades

La teora de las probabilidades es la disciplina matemtica que estudia las
regularidades cuantitativas de los fenmenos aleatorios masivos, o sea de
aquellos fenmenos que al reproducir reiteradamente un mismo ensayo,
prueba o experimento ocurren cada vez de modo diferente.
Todo en el mundo est sujeto a leyes, segn ensea el materialismo dialctico.
Segn F. Engels, all donde en la superficie ocurre el juego de la casualidad,
all mismo esa casualidad resulta siempre sometida a leyes ocultas internas. La
cosa est slo en descubrir esas leyes. La teora de la probabilidad elabora
mtodos para establecer dichas leyes, ocultas a la observacin de sucesos
aleatorios particulares, mediante un estudio de los fenmenos aleatorios
basados en un gran nmero de observaciones.

Para estudiar los fenmenos tan variados del mundo real se efectan
observaciones, pruebas y mediciones.
La observacin es la base de todas las investigaciones cientficas; el carcter
que revela el objeto estudiado es de ndole tanto cualitativo como cuantitativo.
El carcter cuantitativo se determina ya sea por medio de recuento exacto
discreto, ya sea por mediciones aproximadas. As, por ejemplo, el nmero de
aciertos al blando se determina exactamente, en cambio la desviacin de las
perforaciones practicadas en el tablero por los proyectiles respecto al centro
puede obtenerse slo aproximadamente.
De tal modo, la teora de las probabilidades estudia no slo los sucesos
aleatorios, sino tambin las magnitudes o cantidades aleatorias. Llmase
magnitud o cantidad aleatoria a aquella que en una prueba toma cierto valor
desconocido de antemano y dependiente de razones fortuitas, las cuales es
imposible considerar con antelacin.
14

Aparte de los fenmenos y magnitudes aleatorios, la teora de las
probabilidades estudia las funciones aleatorias.
Llmese medicin la comparacin cuantitativa de cierta magnitud fsica a
determinar con otra magnitud de la misma clase (homognea) cuyo valor se
conoce. Como resultado de la medicin se obtiene un nmero que muestra
cuntas veces la magnitud fsica a determinar es mayor o menor que la
magnitud con que se compara y , finalmente, revela cuntas veces es mayor o
menor que la unidad de medida.

En adelante, centramos nuestra atencin en las regularidades de aquellos
fenmenos aleatorios que presentan una relativa estabilidad en algunas de sus
propiedades (se tiene en cuenta ni sucesos aleatorios nicos, sino su aparicin
masiva). En la vida real casi todos los fenmenos aleatorios son precisamente
de este gnero. As, por ejemplo, el porcentaje de nacimientos de nios
varones del numero total de nacimientos en las grandes ciudades, es en
diferentes aos, se mantienen bastante estable (cerca del 51.5 %); para citar
otros ejemplos puede aludirse al volumen de la correspondencia durante
ciertos periodos y tambin a fenmenos aleatorio tales como los accidentes en
las calles de una gran ciudad: el numero de tales casos es relativamente
estable en determinados das de la semana, de un mismo mes en diferentes
aos. Hagamos notar, por cierto, que en el estudio de las regularidades de
fenmenos tales como los incendios, granizadas y otras catstrofes naturales
se basa la gestin de las compaas aseguradoras. Es tambin muy estable el
valor medio de magnitudes aleatorias tales como la estatura de la gente, la
temperatura mensual en determinadas regiones geogrficas, etc.


2. Sucesos

La realizacin de cada observacin, prueba o medicin se llama ensayo. El
resultado de un ensayo se llama suceso.

Ejemplos.

1. Al arrojar una moneda al aire pueden ocurrir dos sucesos: caer cara o
caer cruz.
2. Al medir los ngulos internos de un tringulo plano, la suma de stos
dependiendo de la agudeza visual del observador, de la existencia de
errores instrumentales, as como de la influencia de las condiciones
naturales, etc., diferir de 180 , sea en mas o en menos, o bien
coincidir casualmente con su suma terica. Correspondientemente,
tendremos tres sucesos: aparicin del errar de cierre positivo ,
aparicin del error de cierre negativo, y ausencia de error de cierre.

El conjunto de condiciones bajo las cuales se efecta un ensayo se llama
complejo de condiciones.
15
Ejemplo. En las mediciones de ngulos con teodolito, entre las condiciones de
tal complejo se hallan el aumento de anteojo, la precisin del dispositivo de
lectura, la precisin del aparato de centrado, la calidad de la imagen del objeto
visado, las condiciones ambientales, la pericia del observador, etc.

El suceso que, al reproducirse en ensayo (dado cierto complejo de
condiciones), pude aparecer y puede no apareces, se llama suceso aleatorio.
Respectivamente, el fenmeno que, al verificarse reiteradamente en un mismo
ensayo, ocurre cada vez de un modo diferente, dependiendo de cierta
variabilidad de condiciones bajo las cuales se efecta el ensayo, se llama
fenmeno aleatorio.
Ejemplo. Como resultado del tiro con un arma, siendo invariable su posicin, se
tienen los sucesos aleatorios: Acierto al blanco, tiro largo, tiro corto,
desviado a la izquierda , desviado a la derecha, etc. La diversidad de
resultados est condicionada por la presencia, a pesar de que cada tiro se
realiza desde una misma posicin del arma, de factores no considerados
(discrepancia en la cantidad de detonante empleado respecto a la debida,
precisin al apuntar, precisin de las correcciones, etc.) que acusan su
influencia, y el ensayo transcurre cada vez de modo un tanto diferente.

Como ya se ha indicado, en un gran nmero de ensayos efectuados en
condiciones iguales

se observan regularidades bastante estables, lo que


resulta fundamental al aplicar los mtodos de la teora de las probabilidades y
de la estadstica matemtica a la elaboracin matemtica de las mediciones en
masa.
El resultado de un ensayo que queda totalmente descrito por un suceso, y slo
uno, se llama suceso aleatorio simple. Este no puede dividirse en
componentes.
Recibe el nombre de suceso aleatorio complejo aquel que se compone de
dos o varios sucesos simples.
Designemos por A, B, C,.., W diversos sucesos aleatorios; en adelante
escribiremos de la siguiente forma Suceso A. suceso B2, etc.

1. Clases de sucesos

Los sucesos pueden ser: ciertos, imposibles y aleatorios.
Se llama suceso cierto si ocurre seguramente de cumplirse cierto complejo de
condiciones.
Ejemplo. En una urna slo hay bolas blancas. El suceso A que consiste en que,
al extraer una bola de la urna, sta sea blanca, es un suceso cierto.

Los sucesos ciertos suelen designarse con la letra U. Por lo tanto,

A = U

Por condiciones iguales en adelante se entendern aquellas que se caracterizan,


aproximadamente, por los mismos factores principales actuantes (temperatura, presin,
humedad, fuerza y direccin del viento, condiciones geogrficas, etc.).
16
El suceso que en presencia de cierto complejo de condiciones no puede ocurrir
se llama suceso imposible.
Ejemplo. En el caso anterior, el suceso imposible B sera la aparicin de una
bola negra (el complejo de condiciones est determinado por la existencia tan
slo de bolas blancas en la urna).

Los sucesos imposibles se designan, comnmente, con la letra V. As,

B = V.

Como ya se ha dicho, se llama aleatorio aquel suceso que, al cumplirse cierto
complejo de condiciones puede o no ocurrir.
Por ejemplo, si se mide una lnea cuya longitud exacta se conoce de antemano,
el error de medicin pordera ser positivo o negativo, no obstante, es imposible
predecir qu signo tendr el error, lo que se debe a que dicho suceso aleatorio
es el resultado de la accin de muchos factores (Las condiciones en que se
efecta la medicin, la precisin del mtodo empleado, la metodologa de
medicin, etc.), cuya consideracin exacta es imposible.
Ejemplo. Al arroya una moneda, puede caer cara o cruz indistintamente, por
ello , ambos sucesos, caer cara y caer cruz son sucesos aleatorios.

2. Clases de sucesos aleatorios

Los sucesos aleatorios se dividen en compatibles, o simultneos,
incompatibles, nicamente posibles, e igualmente posibles.

Los sucesos se llaman compatibles o simultneos, si al realizar un ensayo
todos ellos pueden producirse.
Si A, B, C,., W son sucesos compatibles y se sabe que seguramente
ocurrirn, entonces se escribe

A B C W = U (I.1)



Ejemplo. El acierto de un proyectil al blanco y la explosin del detonante son
sucesos compatibles.

Los sucesos son incompatibles o excluyentes si en un mismo ensayo la
aparicin de uno de ellos excluye la aparicin de todos los dems.
Ejemplos. 1. En una urna se tienen bolas blancas y negras. En un ensayo en el
que se extrae una bola, el suceso A ( extraccin de una bola blanca) y el
suceso B (extraccin de una bola negra ) son sucesos incompatibles o
excluyentes.
2. Al disparar un arma, los sucesos explosin del detonante y no explosin
del mismo son incompatibles.

La frmulas en el presente libro se designan con dos nmeros: el del capitulo y el de la


frmula en ste.
17
Los sucesos cuya aparicin como resultado de ensayo es nico sucesos cierto,
se llaman sucesos nicamente posibles. Dichos sucesos son incompatibles
dos a dos.
Ejemplo. Al tirar al aire una moneda son posibles nicamente los sucesos que
caiga cara y que caiga cruz.

Los sucesos igualmente posibles son as denominados porque de ellos
ninguno posee mayor posibilidad objetiva de aparicin ( por ejemplo, que caiga
cara o cruz al lanzar una moneda, la carta que pudiera sacarse de una baraja,
etc.)

3. Grupo completo de sucesos
Un sistema de sucesos nicamente posibles se llama grupo completo de
sucesos. De ese modo, en un ensayo, uno de los sucesos de dicho grupo
completo ocurrir necesariamente.

Ejemplo. En una urna hay bolas negras, blancas y rojas. En un ensayo, es
decir, al sacar una bola de la urna, pueden aparecer una sola bola blanca, roja
o negra. Los tres sucesos: aparicin de una bola blanca, aparicin de una
bola negra y aparicin de una bola roja, forman un grupo completo de
sucesos.

Dos sucesos nicamente posibles que constituyen un grupo completo de
sucesos se llaman sucesos opuestos. Un suceso opuesto al suceso A se
designa con la misma letra pero con una raya encima; esto es,

A es el suceso
opuesto al suceso A (a veces se lee no A).

Ejemplos. Si designamos por:
1. A la aparicin de cara al arroja una moneda,

A Ser la aparicin de cruz.
2. B el acierto al blanco

B Ser 2no dar en el blanco;
3. C el que un nmero N de tiros, todos den en el blanco,

C Ser la aparicin de al menos un fallo de entre los N disparos.
4. Aparicin de cierto suceso y no aparicin del mismo.

El ltimo ejemplo posee una importancia especial, ya que la consideracin de
cualquier suceso aleatorio puede reducirse a l.

As, pues, en un ensayo,

(Y A y

A) A

A = V; (I.2)
(o A, o

A) = A +

A = U (I.3)


18

3. Frecuencia relativa y probabilidad de un suceso

Se llama frecuencia relativa de cierto suceso la razn entre el nmero de
apariciones de dicho suceso y el nmero total de ensayos realizados bajo un
complejo dado de condiciones.
Sea Q la frecuencia relativa de un suceso, K, su nmero de apariciones n, el
nmero total de ensayos.
De acuerdo con la definicin dada:

Q =
n
K
(I.4)
Ejemplo. Se han efectuado 30 mediciones de una misma magnitud. El nmero
de errores negativos result ser igual a 12. Por consiguiente, K = 12, n = 30 y la
frecuencia relativa de aparicin del error negativo ser igual a Q = 0.40.

Partiendo de la definicin de la frecuencia relativo, resulta fcil establecer que
sta no puede ser negativa y que su valor para cualquier suceso satisfar las
siguientes desigualdades:

1 Q O ( ya que O n K ) ( I.5)

El tema 1 se adverta que, cuando se realiza un gran nmero de ensayos en
condiciones iguales, se observan regularidades bastante estables. Una
muestra patente de tales regularidades en la propiedad de estabilidad de la
frecuencia relativa de los sucesos aleatorios homogneos, o sea la disminucin
de la dispersin de sus valores obtenidos en diversas series de ensayos al
aumentar el nmero de los mismos en cada serie. Por eso, una vez efectuada
una serie suficientemente grande de ensayos, puede predecirse con gran
precisin el resultado de otras series similares de ensayos.

As, el cientfico ingls C. Pearson, al determinar la frecuencia relativa con que
aparece cara, al lanzar una moneda al aire 12000 y 24000 veces, obtuvo
valores de esta frecuencia, respectivamente, de 0.5016 y 0.5005. Para tal
pruebe, partiendo de consideraciones corrientes, no es difcil establecer que los
valores de la frecuencia relativa con que aparece cara deben ser cercanos
uno del otro, y que su valor exacto, alrededor del cual oscilarn los datos
experimentales es de 0.5.
De este modo, en un nmero grande n de ensayos, la frecuencia relativa Q
presenta una estabilidad que caracteriza la relacin objetiva existente entre el
complejo de condiciones en las cuales se realiza el experimento y el suceso
mismo. Dado que, al aumentar el nmero n de ensayos en las series, la
variacin de los valores de Q en las diversas series diminuye, hay fundamento
para suponer que existe cierto valor de la f5recuencia relativa, respecto al cual
sta diverge en diferentes series de ensayos en uno u otro sentido. Tal
posibilidad objetiva de aparicin de un suceso en un ensayo, y reciebe el
19
nombre de probabilidad del suceso (o, ms exactamente, su probabilidad
estadstica).
En la teora de las probabilidades, a menudo se analizan sucesos
incompatibles e igualmente posibles que forman un grupo completo.
Tales sucesos se llaman casos ( o resultados ) elementales. Un caso se llama
favorable a cierto suceso si su existencia conlleva la aparicin de dicho suceso.
Entonces, como suele decirse, el ensayo se reduce al esquema de resultados
elementales, y la probabilidad puede ser calculada directamente como la
relacin entre el nmero de casos elementales favorables al nmero total de
casos elementales posibles (tal es la definicin clsica de la probabilidad) por la
frmula:

P =
N
M
, (I.6)


Donde M es el nmero de casos elementales favorables a cierto suceso;
N, el nmero total de casos elementales posibles;
P, la probabilidad del suceso.

Ejemplos. 1. En una urna hay 50 bolas blancas y 46 negras. Determinar la
probabilidad de aparicin d dos bolas blancas, al sacar simultneamente un par
de bolas de la urna.
Solucin Encontremos el nmero total de casos elementales posibles N y el
numero de casos M favorables a la aparicin simultnea de dos bolas blancas.

N = C .
93
2


M = C .
50
3


Por lo tanto,

P =
N
M
=
94 2!
96!
48! 2!
50!


Haciendo uso de la propiedad fundamental del factorial n! = n ( n 1)! Y
efectuando las correspondientes simplificaciones, se obtiene que:

P =
96 . 95
50 . 49
0.27.

2. Un cubo, cuyas caras han sido pintadas, se parte en mil cubitos de igual
tamao, tras lo cual stos se revuelven cuidadosamente. Calcular la
20
probabilidad de que un cubito tomado al azar tenga dos de sus caritas
pintadas.

Solucin. El nmero de cubitos es N = 1000. Un cubo tiene 12 aristas en cada
una de las cuales hay 8 cubitos con dos critas pintadas, por tanto, M = 12.8 =
96.
La probabilidad buscada ser igual a
P =
N
M
=
1000
96
= 0.096.
La propiedad antes aludida de estabilidad de frecuencia relativa ha sido objeto
de estudio por parte de numerosos cientficos. El primero en formular esta ley
fue Jacobo Bernoulli ( 1654 1705) en forma del siguiente teorema: en un
nmero n ilimitadamente grande de ensayos, con un probabilidad
arbitrariamente prxima a la unidad, la frecuencia relativa
n
K
de aparicin de
un suceso diverge arbitrariamente poco de la probabilidad de aparicin de
dicho suceso en un solo ensayo independiente.

Esta tesis representa la formulacin ms simple de la ley de los grandes
nmeros. El teorema matemtico de Bernoulli, empleando las designaciones
adoptadas, puede expresarse por medio de la frmula


)
`

=

1 p
n
K
P
n
(I.7)

Donde y son nmeros positivos arbitrariamente pequeos.

La formula (I.7) sirve de base para determinar empricamente la probabilidad,
cuando es imposible hallar su valor por otra va. En tales casos se asume que
la probabilidad tiene un valor igual al de la frecuencia relativa calculada a partir
de un nmero suficientemente amplio de ensayos.
Si la probabilidad del suceso es bastante cercana a la unidad, entonces se dice
que tal suceso es prcticamente imposible. El grado de aproximacin de p a 1
o a 0 se estima, partiendo de consideraciones prcticas. En otras palabras,
para un suceso arbitrario no puede indicarse de antemano la magnitud de su
probabilidad, con la cual se podra considerar dicho suceso como
prcticamente cierto o bien prcticamente imposible, o sea de qu suceso
concreto se trata. As, por ejemplo, si en una serie de disparos de artillera, de
mil proyectiles 999 estallan y uno no, la probabilidad del suceso no explosin
del detonante, igual a 0.001 puede considerarse con seguridad una magnitud
despreciablemente pequea, y el mencionado suceso, prcticamente
imposible. En cambio, si 0.001 fuera la probabilidad del suceso el paracadas
no se despliegue tras el salto, entonces apenas calificaramos semejante
suceso de prcticamente imposible.
De lo expuesto se deduce que para cada suceso partiendo de consideraciones
de orden prctico, es necesario establecer magnitud tolerable de la
21
discrepancia de su probabilidad de la unidad o de cero para poder calificar el
suceso como prcticamente cierto o bien prcticamente imposible.
Veamos ahora los corolarios que se derivan de la definicin de probabilidad.

1. La probabilidad de un suceso imposible es igual a cero, o sea
( ) , 0 = v p
(I.8)
Donde V es el suceso imposible.
En efecto, si en la formula (I.6) hacemos M = 0, entonces resulta que
P = 0.

2. La probabilidad de un suceso cierto es igual a la unidad, o sea
( ) , 1 = v p
(I.9)
Donde U es el suceso cierto.
Efectivamente, si en la formula (I.6) hacemos M = N 0, entonces
resulta que P = 1.

3. La probabilidad de un suceso aleatorio es siempre un nmero positivo
comprendido entre cero y la unidad, esto es,

, 1 0 < < p
(I.10)

La probabilidad de cualquier suceso ha de satisfacer las desigualdades:

, 1 0 p
(I.11)



En adelante, designaremos por
( ) p A p = la probabilidad de aparicin de un suceso;
( ) q A p = la probabilidad de no aparicin de un suceso.
Tomando en cuenta las designaciones de (I.3), puede escribirse
P + q = 1 (I.12)

4. Suma de probabilidades
Recibe el nombre de suma de varios sucesos incompatibles aquel suceso
complejo que consiste en la aparicin de uno de dichos sucesos, sin importar
cul.
Sean los sucesos incompatibles A
1
, A
2
,. A
n
.
Si B es un suceso complejo consistente en la aparicin de uno de estos
sucesos incompatibles (no importa cul), entonces

B = (o A
1,
o A
2
,., o A
n
). (I.13)
Una escritura ms cmoda de (I.13) puede ser

B = A
1
+ A
2
+. +A
n
, (I.14)
o bien,
22
.
1

=
=
n
i
i
A B
(I.15)


1. Teorema de la suma de probabilidades

La probabilidad de la suma de varios sucesos incompatibles dos a dos (no
importa cules) es igual a la suma de las probabilidades de dichos sucesos,
esto es,

( ) ( ) ( ) ( ) ( ), ..... ....
2 1 2 1 n n
A p A p A p A A A p B p + + = + + + = (I.16)

o dicho de otra manera,

( ).
1 1

= =
= |
.
|

\
|
n
i
i
n
i
i
A p A p
(I.17)


Demostracin: Designemos por:
N, el nmero total de resultados elementales posibles en el ensayo;
M
1
, el nmero de casos favorables al suceso A
1
;
M
2
, el nmero de casos favorables al suceso A
2
;

M
n
, el nmero de casos favorables al suceso A
n
.
El nmero de casos elementales favorables a la aparicin del suceso
B = A
1
+ A
2
+. +A
n
,
Es igual a
n B
M M M M + + + = .......
2 1
(I.18)
Por lo tanto
( ) ( )
. .....
......
.....
2 1
2 1
2 1
N
M
N
M
N
M
N
M M M
A A A p B p
n
n
n
+ + +
=
+ + +
= + + + =
(1.19)
Teniendo en cuanta que
( )( ), ,...., 1 n i A p
N
M
i
n
= =
(I.20)
Se obtiene que
( ) ( ) ( ) ( ) ( ), ..... ....
2 1 2 1 n n
A p A p A p A A A p B p + + = + + + = (I.21)
o bien,
( ).
1 1

= =
= |
.
|

\
|
n
i
i
n
i
i
A p A p (I.22)
23
Ejemplo. En una lotera se juegan 1000 billetes, premiados como sigue: uno de
ellos con 500 rublos; 10, con 100 rublos; 50, con 20 rublos y 100, con 5 rublos.
Los restantes no tienen premio.
Hallar para un billete la probabilidad de 1) ganar no menos de 20 rublos
y 2) ganar cualquier cantidad.

Solucin. Designaremos los sucesos de la siguiente forma: B
1
ser un premio
no menor de 20 rublos; B
2
, un premio de cualquier cantidad, A
1
, un premio de
20 rublos, A
2
,100, A
3
, 500 y A
4
, 5 rublos.
Segn la condicin,

3 2 1 1
A A A B + + =
4 3 2 1 2
A A A A B + + + =
Del teorema de la suma de probabilidades se deduce que:
( ) ( ) ( ) ( ) . 061 . 0
1000
1
1000
10
1000
50
,
3 2 1 1
= + + = + + = A p A p A p B p

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) | | ( )
. 161 . 1
1000
100
061 . 0
3
4 2 1 4 3 2 1 2
= + =
+ + + = + + + = A p A p A p A p A p A p A p A p B p

2. Teorema de la suma de probabilidades de los sucesos que
forman un grupo completo.
La suma de las probabilidades de los sucesos que forman un grupo completo
es igual a la unidad.
En efecto, si los sucesos A
1
, A
2
,.., A
n
forman un grupo completo , la aparicin
de uno de ellos es cierta y, por consiguiente,

( ) . 1
3 2 1
= + + A A A p


Puesto que los sucesos que forman un grupo completo son incompatibles dos
a dos, puede aplicarse el teorema de la suma

( ) ( ) ( ) . 1 , ....
2 1
= + + +
n
A p A p A p


5. Sucesos independientes y dependientes
Probabilidad condicional

Las deducciones de la teora de las probabilidades respecto de los sucesos
complejos divergirn sustancialmente, dependiendo del carcter de la relacin
entre dichos sucesos. Convenga introducir las definiciones de sucesos
independientes y dependientes y la nocin de probabilidad condicional.
Dos sucesos son independientes si la probabilidad de aparicin de uno de
ellos no depende de si el otro aparece o no.
24
Ejemplo. Dos observadores realizan dos lecturas del nonio de un instrumento,
finado ste en una misma posicin. La probabilidad de error del primero no
depender del error del segundo observador y viceversa.
Varios sucesos se denominan independientes dos a dos si cada par de ellos
est formado por sucesos independientes entre s.
Ejemplo. Una moneda se lanza al aire cuatro veces. Sean B, C, D y E los
sucesos consistentes en la aparicin de cara en la primera, segunda, tercera
y cuarta ocasin, respectivamente. Es obvio que cada par de sucesos que se
toma de B, C, D y E ( o sea, B y C, B y D, B y E, C y D, C y E, D y E) estar
formado por dos sucesos independientes entre s. As pues, B, C, D y E son
sucesos independientes dos a dos.

Varios sucesos se llaman independientes en conjunto si cada uno de ellos y
cualquier suceso complejo (formado por la combinacin de todos los sucesos
restantes o por una parte cualquiera de ellos) son sucesos independientes
entre s. As, por ejemplo, Si A
1
, A
2,
A
3
son sucesos independientes en
conjunto, entonces los sucesos que forman los siguientes pares: A
1
y A
2 ,
A
1
, y

A
3,
A
2
y A
3,
A
1
A
2
y A
3,
A
1
A
3
y A
2 ,
A
2
A
3
y A
1
. Sern independientes entre s.

La independencia en conjunto no es consecuencia de la independencia dos a
dos, o sea varios sucesos pueden ser independientes dos a dos, poro no ser
independientes en conjunto.
Dos sucesos se llaman dependientes si la probabilidad de aparicin de uno de
ellos depende de si el otro suceso ha aparecido o no.

Ejemplo. Si se logra abatir un objetivo de dos disparos, entonces abatir el
objetivo al segund ( ) A P o disparo es un suceso dependiente, ya que slo puede
ocurrir a condicin de haber acertado un primer disparo.
La probabilidad calculada en la suposicin de que uno o varios sucesos han
ocurrido ya recibe el nombre de probabilidad condicional.
Designaremos por:
P(A/B) la probabilidad condicional de aparicin del suceso A, calculada en el
supuesto de haber ya ocurrido el suceso B;
P(A/ B
1
, B
2
, B
3,
..) la probabilidad condicional de paricin del suceso A
calculada en el supuesto de haber ya ocurrido los sucesos B
1
, B
2
, B
3,
..
Los sucesos A y B son dependientes si cumplen las siguientes desigualdades

P (A/B) p (A); P(B/A) p (B) (I.23)

A veces, con el objeto de distinguirla de la condicional, la probabilidad de un
suceso independiente se denomina probabilidad incondicional (en aquellos
casos en que ambas nociones se emplean al mismo tiempo). Los sucesos A y
B son independientes si se cumplen las condiciones siguientes:

P (A/B) = p (A); P(B/A) = p (B) (I.24)

25
En el ejemplo anterior la probabilidad condicional de impacto al Segundo
disparo ser igual a la probabilidad de acertar al blanco en caso de haber dado
en el blanco un primer disparo, y a cero, si se ha fallado el primer tiro.

6. Producto de probabilidades

Un caso de suceso complejo es el producto de sucesos.
Producto o interseccin de dos o varios sucesos es aquel suceso complejo
que consiste en la aparicin simultnea de todos esos sucesos.

Ejemplo. Se efectuaron tres tiros al blanco. Sea el suceso B el impacto al
primer disparo; C, al segundo tiro; D, al tercero. Entonces, el suceso complejo
acierto en los tres disparos se escribir
A = B. C. D.
De este modo, si A es el suceso complejo consistente en la aparicin
simultnea de los sucesos B, C, D,.., W el producto de sucesos quedar
expresado as:

. .... W D C B A = (I.25)

A veces suele escribirse

( ). ...... , , , W y yD yC yB A = (I.26)

En la ulterior exposicin, para designar el producto de los sucesos
emplearemos la escritura (I.25) por ser la mas sencilla.





Teorema del producto de las probabilidades

La probabilidad de un producto de dos o varios sucesos dependientes es igual
al producto de la probabilidad incondicional de uno de stos por las
probabilidades condicionales de los otros, o sea,

( ) ( ) ( )
( ). ......
....... ) ...... (
1 2 1
2 1 3 1 3 2 1


=
n n
i
A A A A p
A A A p B A p A P A A A A p
(I.27)

La frmula (I.27) puede expresarse en una forma ms cmoda as:

( ) ( ) ( )
|
.
|

\
|
=
|
.
|

\
|


= =
1
1
2 1 3 1 2 1
1
....
n
i
i n
n
I
i
A A p A A A p A A p A p A p
(I.28)

26
Para la probabilidad del producto de dos sucesos dependientes A y B, la
frmula (I.28) tomar la forma

( ) ( ) ( ). A B p A p AB P =
(I.29)
Cuando los sucesos que componen un producto son independientes, el
teorema del producto de probabilidades se simplifica y puede ser formulado
as: La probabilidad del producto de dos o varios sucesos independientes
en conjunto es igual al producto de las probabilidades de dichos sucesos.
De este modo, si en la frmula (I.28):

( ) ( ) ( ) ( ), ....
1
1
2 1 3 1 2 1
1
n
n
i
i n
n
I
i
A p A A p A A A p A A p A p A p =
|
.
|

\
|
=
|
.
|

\
|


= =

Entonces,

( ) ( ) ( ) ( )
n i
A p A p A p A P A A A A p ..... ) ...... (
3 2 1 3 2 1
= (I.30)

Demostraremos el teorema del producto de las probabilidades en el caso de
dos sucesos independientes A y B.
Demostracin Designemos por:
N el nmero total de casos elementales posibles en un ensayo, en los cuales el
suceso A puede aparecer y puede no aparecer;
N
1
el nmero total de casos favorables a la aparicin del suceso A ( N N
1
);
M es el nmero total de casos elementales posibles en un ensayo, en los
cuales el suceso B puede aparecer y puede no aparecer.
M
1
el nmero total de casos favorables a la aparicin del suceso B ( M M
1
);
El nmero total de casos elementales posibles en tal ensayo es el nmero de
posibles parejas: y A y B; o bien y A y B ; o ya sea, y Ay B, o Ay B ; dicho
nmero es igual a NM. El nmero de casos elementales en dicho ensayo
favorables a la aparicin conjunta de A y B es igual a N
1
M
1
.

As que la probabilidad de aparicin simultnea de A y B ser igual a

( ) .
1 1 1 1
M
M
N
N
NM
M N
AB p = =
(I.31)

Pero, como en el segundo miembro de la igualdad (I.31)

( ) ( ),
1 1
B p
M
M
y A p
N
N
= = (I.32)

Resulta que
( ) ( ) ( ). A B p A p AB P =
(I.33)
que es lo que se quera demostrar.
27
De forma anloga, se puede demostrar el teorema para todos los sucesos
independientes en conjunto y, por induccin matemtica, para un nmero
arbitrario de sucesos; es decir,

( )
i
n
I
n
I
i
A p A p
1
1
=
=
=
|
.
|

\
|

(I.34)

Ejemplo. En dos cajas hay bolas: en una a
1
bolas blancas y b
1
negras; en otra,
a
2
bolas blancas y b
2
negras. De cada caja se saca una bola al azar.
Determinar la probabilidad de que ambas bolas sacadas sean blancas.

Solucin. Designemos los casos de la siguiente manera
A
1
, La bola blanca sacada de la primera caja;
A
2
, La bola blanca sacada de la segunda caja;
A, casos en que ambas bolas sacadas sean blancas.

A = A
1
A
2
Ya que los sucesos A
1
y A
2
son independientes, se aplica el teorema del
producto, de probabilidades,

( ) ( ) ( ) ( )
( )( )
.
2 2 1 1
2 1
2 2
2
1 1
1
2 2 1
b a b a
a a
b a
a
b a
a
A p A p A A p A p
+ +
=
+

+
= = =

En caso particular, cuando la probabilidad de todos los sucesos es la misma e
igual a p 8con lo que a menudo tropezamos al resolver problemas de la teora
de los errores), la frmula (I.34) puede escribirse as (para simplificar la
notacin, por P se designa el primer miembro de dicha frmula):

n
p P =
(I.35)
Ejemplo. Un dado se tira cinco veces. Determinar la probabilidad de que en
cada ocasin caiga tres.
Solucin. La probabilidad de que, al jugar un vez el dado caiga en tres es igual
a
6
1
= p
Segn la frmula (I.35) la probabilidad buscada ser:

.
7776
1
6
1
5
= |
.
|

\
|
= P
Ejemplo 2.En una caja hay 25 bolas blancas y 36 negras. Calcular la
probabilidad de aparicin consecutiva de dos bolas blancas, si la primera bola
que se saca no es devuelta a la caja.
Solucin. Designemos los sucesos del modo siguiente:
A
1
, aparicin de la primera bola blanca;
A
2
, aparicin de la segunda bola blanca.
28

Ya que la probabilidad del suceso A
2
depende de la paricin previa de A
1
, cabe
aplicar el teorema del producto de sucesos dependientes:
( ) ( ) ( ). A B p A p AB P = .
Obtengamos la probabilidad del suceso A
1
:

( ) .
61
25
1
= A p

Hallemos la probabilidad condicional del suceso A
2
:
( ) .
5
2
60
24
1 61
1 25
2 1
= =

= A A p
La probabilidad buscada es:
( ) . 164 . 0
5 61
2 25
2 1

= A A p

Ejemplo 3. La probabilidad del impacto de un disparo con arma es, en general,
igual a 0.20. Sin embargo se sabe que un 2% del detonante es defectuoso y no
explota. Tomando en cuanta dicha circunstancia, calcular la probabilidad de
acertar al blanco.

Solucin. . Designemos los casos posibles:
A, el acierto al blanco
A
1
, el proyectil alcanza el blanco;;
A
2
, .el detonante explota (no es defectuoso).

A = A
1
A
2
Dado que los sucesos A
1
y A
2
son independientes, emplearemos el teorema del
producto de probabilidades,

( ) ( ) ( ) ( ) 196 . 0 98 . 0 20 . 0 ) 02 . 0 1 ( 20 . 0
2 1 2 1
= = = = = A p A p A A p A p


7. Distribucin de las probabilidades en ensayos mltiples
(distribucin binomial)

En muchos experimentos, por ejemplo, al verificar instrumentos nuevos o al
probar mtodos nuevos de trabajo, se realizan los ensayos o pruebas mltiples,
guardando a menudo cierto complejo de condiciones. Al investigador, en este
caso, le interesan todos los resultados posibles de las pruebas a realizar, as
como la obtencin de las caractersticas de probabilidad comparativas que
stas revelen. Detengmonos en esta cuestin a lo largo detalladamente.
Si se efecta una serie de ensayos, en cada uno de los cuales la probabilidad
de aparicin del suceso A no depende de los resultados de otros ensayos,
entonces tales ensayos se llaman independientes respecto al suceso A.
Supngase que se realizan n ensayos independientes, en cada uno de los
cuales la probabilidad de aparicin del suceso A es conocida (igual a p) y
29
adems es constante. Plantemonos como tarea determinar la probabilidad
P
n
(K) de que en n ensayos el suceso A se presente k veces, indiferentemente
del orden en que ello ocurra.
Para ello, analicemos consecutivamente los resultados de la pruebas despus
de uno, dos, etc., ensayos y, finalmente, al cabo de n ensayos.
A resultas de un ensayo, el suceso A puede aparecer y puede no aparecer; es
decir, son posibles los siguientes dos sucesos que forman un grupo completo

A, A.
Como la suma de probabilidades de los sucesos que forma un grupo completo
es igual a la unidad, entonces

( ) ( ) 1 = + A p A p ,
o bien

q + p = 1.
Despus de efectuar dos ensayos independientes so posibles los siguientes
sucesos complejos:
, AA AA, A A, AA,
y como estos sucesos forman un grupo completo , entonces:
( ) ( ) ( ) 1 ) ( = + + + A A p A A p AA p AA p
(I.36)
Dado que los sucesos considerados son independientes, en este caso puede
aplicarse el teorema del producto de probabilidades:

( ) ( ) ( )
( ) . 1 2
) (
2
2 2
= + = + + =
+ + + = + + +
p q p qp q
pq qp pp qq A A p A A p AA p AA p
(I.37)

Al cabo de tres ensayos independientes, son posibles los siguientes sucesos
complejos.
A AA A A A AA A AA A A A A A AA AAA AAA , , , , , , ,
Estos sucesos forman un grupo completo de sucesos y son independientes, de
all la suma de sus probabilidades es igual a la unidad por lo que es aplicable el
teorema del producto


( ) 1 3 3
) ( ) ( ) ( ) ( ) ( ) ( ) ( ) (
3 3 2 2 3
2 2 2 2 2 2 3 3
= + = + + + =
+ + + + + + + =
+ + + + + + +
p q p q p p q q
q p q p q p p q p q p q p q
A AA P A A A P AA A P AA A P A A A P A AA P AAA P AAA P
(I.38)

Razonando de manera anloga, para n ensayos se obtiene

( ) 1 = +
n
p q
(I.39)
30
Descomponiendo el binomio (I.39) en una suma de n+1 sumando, resulta que

( )
. 1 ...... .....
......
0
2 2 2 1 1 0 0
= + + +
+ + + = +


n n
n
k k n k
n
n
n
n
n
n
n
n
p q C p q C
p q C p q C p q C p q
(I.40)

Aqu ) ,.... 2 , 1 , 0 ( n K C
k
n
= son los coeficientes binomiales; adems

1
0
= =
n
n n
C C

El primer sumando de (I.40) caracteriza la probabilidad de que en n ensayos
independientes el suceso A parezca o veces, es decir, ni una sola vez; el
segundo sumando determina la probabilidad de que el suceso A aparezca una
vez y, por consiguientes, no ocurra n- veces, y as sucesivamente. El ltimo
sumando caracteriza la probabilidad de que el suceso A aparezca n veces.
As pues, la probabilidad de que en n ensayos independientes, en cada uno de
los cuales la probabilidad de aparicin de cierto suceso es igual a p, dicho
suceso ocurra justamente un nmero k de veces se determina por la frmula
( )
k k n k
n n
p q C k p

=
(I.41)
Donde P
n
(k) es la probabilidad de aparicin del suceso k veces en n ensayos;
( )! !
!
k n k
n
C
k
n

=
Es el nmero de posibles combinaciones de n objetos en
grupos de k elementos;
q, la probabilidad de no aparicin del suceso en un solo ensayo.
p, la probabilidad de aparicin del suceso en un solo ensayo.
El conjunto de las probabilidades P
n
(k) (K = 0, 1, 2, ,n) se denomina
distribucin binomial de probabilidades.
Cuando n y k son grandes (ms de 10), para simplificar el clculo de los
factoriales se utiliza la frmula aproximada de Stirling:
|
.
|

\
|
+ + + =

......
288
1
12
1
1 2 !
3
n n
n n n
n n
l (I.42)
Por lo comn, la frmula de Stirling se simplifica an ms y se aplica en la
forma
. 2
n
e
n
n n
|
.
|

\
|

(I.43)
El error absoluto en el clculo de factoriales por la frmula (I.43) crece al
aumentar el valor de n. En cambio la precisin relativa (definida como la razn
entre los valores del error absoluto y el factorial y que suele expresarse en %)
aumenta con el incremento de n. Por eso, la frmula de Stirling pertenece a la
clase de frmulas asintticas. Comparando las frmulas (I.42) y (I.43) es fcil
calcular que cuando n = 10, el error relativo de los clculos es igual a 0.8%;
cuando n = 20, igual a 0.4%.
En ocasiones, para determinar los coeficientes binomiales en los clculos por la
frmula (I.41); conviene hacer uso del tringulo de pascal (Tabla 1)
31

Tabla 1

n
Coeficientes
k
n
C

0 1
1 1 1
2 1 2 1
3 1 3 3 1
4 1 4 6 4 1
5 1 5 10 10 5 1
6 1 6 15 20 15 6 1
Cada coeficiente binomial en el tringulo de Pascal se obtiene como la suma
de los dos coeficientes situados encima de l, en el rengln anterior, a ambos
lados.

Notemos, para concluir, que puede lograrse un control adicional de los clculos
realizados por la frmula (I.40), si se parte de las propiedades de los
coeficientes binomiales, a saber: los coeficientes de los miembros equidistantes
del comienzo y del final de cada rengln son iguales, y la suma de todos los
coeficientes en un binomio de n-simo grado es igual a 2
n
.

Ejemplo. Hallara la probabilidad de practicar tres perforaciones en el tablero de
un blando en cuatro disparos, si la probabilidad de que un proyectil perfore el
tablero en un disparo es constante e igual a 0.4.

Solucin. Designaremos por p la probabilidad de que en un tiro se perfore el
tablero en blanco y por P
4(3)
, la probabilidad de que en cuatro disparos se
practiquen tres perforaciones en el tablero. De acuerdo con los datos.
( ) 4 . 0 = = p A p 6 . 0 1 = = p q ;
De la frmula (I.41) tenemos:
. 1536 . 0 ) 4 . 0 ( ) 6 . 0 ( 4
3 1 3 3 4 3
4 ) 3 ( 4
= = =

p q C p

Este resultado se obtiene tambin, al aplicar los teoremas de la suma y del
producto de probabilidades.
El suceso presencia de tres perforaciones en el tablero del blanco puede
ocurrir en las combinaciones siguientes (Sea A
i
el impacto sobre el tablero en
caso i-simo disparo):
1) ( )
4 3 2 1 1
A A A A B = 3) ( )
4 3 2 1 3
, A A A A B = ;
2) ( )
4 3 2 1 2
A A A A B = 4) ( )
4 3 2 1 4
, A A A A B = .
Haciendo uso del teorema del producto de probabilidades de sucesos
independientes , se tiene
1) ( ) 0384 . 0 ( ) ( ) ( ) ( ) (
4 3 2 1 1
= = A p A p A p A P B p
2) ( ) ) ( ) ( ) ( ) ( ) (
4 3 2 1 2
A p A p A p A p B p = = 0.0384
3) ( ) 0388 . 0 ) ( ), ( ) ( ) ( ) (
4 3 2 1 3
= = A p A p A p A p B p ;
4) ( ) 0384 . 0 ) ( ) ( ) ( ) ( ) (
4 3 2 1 4
= = A p A p A p A p B p .
32



Recordemos que
( ) ( ) 4 . 0 ) ( ) (
4 3 2 1
= = = = A p A p A p A p
Segn lo acordado en el ejemplo, la aparicin de cualquiera de los sucesos
complejos representados por los productos 1)-4) quiere decir la aparicin del
suceso indicado . Por lo tanto segn el teorema de la suma, se tiene:
( ) ( ) ( ) ( )
4 3 2 1 ) 3 ( 4
B p B p B p B p p + + + =
, o bien
1536 . 0
) 3 ( 4
= p

Se ha obtenido el mismo resultado que al aplicar la frmula (I.41)

Para fines prcticos, es til saber calcular la probabilidad de aparicin de al
menos uno de entre un total de n sucesos independientes en conjunto cuando
se conoce la probabilidad de aparicin de cada uno de ellos.
Sea A un suceso consistente en la aparicin de al menos uno de los sucesos
A
1
, A
2
,..A
n
independiente en conjunto.

El suceso complejo ( )
n
A A A .....
2 1
, que se presenta cuando ninguno de los
sucesos ocurre, viene a ser el suceso contrario al suceso A.
Por consiguiente,
( ) ( ) , 1 ......
2 1
= + n A A A p A p
o bien:
( ) ( ) ( ) ( ) . 1 ....
2 1
= +
n
A p A p A p A p (I.44)
De la formula (I.44), designando
( ) ( ) ( ) . ,.... ,
2 2 1 1 n n
q A p q A p q A p = = = (I.45)
Obtenemos
( )
n
q q q A p .... 1
2 1
= , (I.46)
es decir, la probabilidad de aparicin de al menos uno de entre n sucesos
independientes en conjunto es igual a la diferencia entre la unidad y el producto
de las probabilidades de los sucesos contrarios.
En particular, cuando ( ) ( ) ( ) , ....
2 1
p A p A p A p
n
= = = la probabilidad de aparicin de
un suceso, aunque sea una sola vez ser igual a
( )
n
q A p =1 .
As, en el ejemplo anterior, se obtendr
( ) 87 . 0 6 . 0 1
4
= = A p ,
es decir, la probabilidad de perforar el tablero del banco al menos una vez en
cuatro disparos es igual a0.87.
Aplicando la misma idea, puede obtenerse la frmula de la suma de
probabilidades para suceso compatibles.
Vamos a suponer que n sucesos compatibles A
1
A
n
poseen las
probabilidades p
1
,..p
n.
Las probabilidades de no aparicin de estos sucesos
son iguales, respectivamente, a
33
. 1 ,..... 1
1 1 n n
p q p q = =
La probabilidad de que ninguno de los sucesos
indicados se presente es igual a
.
1
1
q Q
n

=
Y, finalmente, la probabilidad de
aparicin de al menos uno de los sucesos compatibles es igual a P = 1-Q.


8. El nmero ms probable de apariciones de uno suceso en
ensayos mltiples

Al llevar a cabo experimentos y diversos clculos tericos, al investigador,
como es natural, le interesa saber cual es el nmero ms probable de
apariciones de un suceso esperado en ensayos mltiples, si se cumple un
determinado complejo de condiciones, el cual, en forma generalizada, posee un
carcter constante en el proceso de anlisis de la probabilidad de aparicin de
dicho sucesos en un ensayo. Calculando todos los trminos en la frmula (I.40)
y sabiendo, a partir de la definicin de probabilidad , que una mayor
probabilidad asegura mayor confianza en la obtencin del resultado respectivo
de un ensayo, determinaremos el nmero buscado de apariciones del suceso.

Ejemplo.Se han efectuado ocho mediciones independientes de una misma
magnitud en condiciones iguales. Calcular las probabilidades de aparicin de
errores negativos : una, dos, tres, y as sucesivamente, hasta ocho veces de
entre ocho, suponiendo que
( ) ( ) ( ) ( ) . 0 ; 0 ;
2
1
0 0 p p q p p p = > = < = > = <

Solucin .Compongamos la tabla 2.
Tabla
2


Numer
o
De
Apari-
ciones
0 1 2 3 4 5 6 7 8
Contr
ol
( ) k P
N

n
8
0
8
2
1
|
.
|

\
|
C

8
1
8
2
1
|
.
|

\
|
C

8
2
8
2
1
|
.
|

\
|
C

8
3
8
2
1
|
.
|

\
|
C

8
4
8
2
1
|
.
|

\
|
C

8
5
8
2
1
|
.
|

\
|
C

8
6
8
2
1
|
.
|

\
|
C

8
7
8
2
1
|
.
|

\
|
C

8
8
8
2
1
|
.
|

\
|
C



8
256
1

256
8

256
28
256
56


256
70

256
56
256
28
256
8
256
1

256
256

34
De la tabla 2 se concluye que la mayor probabilidad |
.
|

\
|
56
70
corresponde a la
aparicin de cuatro errores negativos.




Cuando el nmero n es grande, el uso de la frmula (I.40) se hace engorroso.
Busquemos una solucin ms simple y general, vlida igualmente para
cualquier valor finito de n.
Sea K
0
el nmero ms probable de apariciones de un suceso en n ensayos.
Para resolver la tarea planeada, apliquemos la frmula (I.41) de distribucin
binomial de las probabilidades. Ahora bien, ya que esta distribucin es
discontinua (discreta), el aparato del anlisis matemtico resulta inservible para
el estudio de las fluctuaciones de las probabilidades P
n (K)
en dependencia de la
variacin del nmero de apariciones de suceso k. Por tanto el problema
requiere una solucin algebraica.
Segn la definicin del nmero ms probable de apariciones de un suceso,
deben verificarse las desigualdades siguientes:

( ) ( )
( ) ( )
.
1
1
0 0
0 0
)
`


+
k P k P
k P k P
n n
n n
(I.47)
Si la condicin (I.47) se cumple. K
0
ser el nmero ms probable de
apariciones del suceso en ensayos reiterados.
Hallaremos el nmero k
0
que satisface la primera de las desigualdades (I.47).
Para esto, escribamos la relacin

( )
( )
. 1
1
0
0

+
k P
k P
n
n
(I.48)
Empleando la frmula (I.41), desarrollemos el numerador y denominador del
primer miembro de la desigualdad (I.48)

( )
( )
( ) ( )
( )
.
!
!
! 1 ! 1
!
1
0 0
0 0
1 1
0
0
0 0 0
0 0 0
q
k n k
n
p
k n k
n
p q C
p q C
k P
k P
k k n k
n
k k n k
n
n
n

+
=


=
+

+
(I.49)
Realizando las simplificaciones correspondientes en (I.49) y tomando en cuanta
la desigualdad (I.48), obtenemos
. 1
1
0
0

+

q
p
k
k n
(I.50)
Pasando el denominador del primer miembro al segundo en (I.50), escribiremos
( ) ( )q k p k n 1
0 0
+ (I.51)
o bien,
q q k p k np +
0 0
(I.52)
35
Luego tendremos
( ) q p k q np +
0

Pero, ya que p + q = 1, entonces
0
k q np (I.53)

De este modo, para el cumplimiento de la primera parte de la condicin (I.47)
es suficiente determinar k
0
bajo la condicin (I.53).
Hallemos el lmite derecho de k
0
que satisface la segunda desigualdad
(I.47).para ello establezcamos la relacin

( )
( )
. 1
1
0
0

k p
k p
n
n
(I.54)
Luego de efectuar sencillas transformaciones se obtiene
( )
( )
, 1
1
1
0
0
0
0

+
=

p
q
k n
k
k p
k p
n
n

o bien
( ) , 1
0 0 0 0 0
p p k np p k k p k q k + = =

de donde
.
0
p np k +
(I.55)

En definitiva, despus de unir las desigualdades (I.53) y (I.55), resulta que
( ) . 1
0
p np k p np +
(I.56)
La desigualdad (I.56) permite hallar el nmero ms probable de apariciones de
un suceso en ensayos mltiples, es decir, aquel que satisface las condiciones
(I.47) , adems si el nmero ( ) q np es fraccionario, entonces la desigualdad
doble (I.56) define un solo nmero k
0
como el ms probable, en cambio, si es
entero, (I.56) definir dos nmeros como los ms probables : 1
0 0
+ yk k .
Cuando se tiene un nmero de ensayos lo suficientemente grande y para un
valor de p no cercano a cero, se puede reducir la desigualdad (I.569 a igualdad
y en la prctica calcular k
0
por la frmula aproximada
.
0
np k
(I.57)
Por la frmula (I.57) hallamos ,
0
p
n
k
lo que explica la propiedad de estabilidad
de la frecuencia relativa en un nmero grande de ensayos, y puede servir
tambin como cierto fundamento para el teorema de Bernoulli expuesto en el
capitulo 3.
Notemos que si el producto np presenta un nmero entero, entonces la
igualdad aproximada 8I.57) se hace exacta.


36
9. Ley del lmite de Moivre-Laplace (ley normal de distribucin de
las probabilidades en ensayos mltiples)

La distribucin binomial de probabilidades resulta, en mayor o menor grado,
efectiva para la solucin de problemas prcticos slo cuando el nmero de
ensayos es comparativamente pequeo (no mayor de 10-20).


Al aumentar el nmero n de ensayos, las probabilidades de cada nmero de
apariciones de un suceso disminuyen de suerte que en un nmero grande n
dichas probabilidades se tornan insignificantemente pequeas. Este hecho se
hace casi evidente, si tomamos en cuenta que el nmero de trminos de la
distribucin binomial es igual a n+1 y que la suma de stos siempre es igual a
la unidad.
Cuando se tiene un nmero grande de ensayos, puede revestir inters prctico
nicament la solucin del problema siguiente: cul es la probabilidad de que
cierto suceso ocurra entre los lmites a y b de veces, es decir, que ocurra a, o
bien a + 1, a + 2, a + 3, etc, o b veces? Segn el teorema de la suma, la
probabilidad de tal suceso complejo (suma o unin de sucesos) es igual a la
suma de las probabilidades de los sucesos componentes, es decir.
( ) ( ) ( ) ( ). ..... 2 1 b P a P a P a P
n n n n
+ + + + +

Pero el clculo de tal suma de probabilidades pro la frmula (I.40), para un
nmero n grande, resulta extremadamente complicado.
De manera ms sencilla, este problema se resuelve si se emplea la llamada ley
de distribucin normal reprobabilidades, cuya demostracin completa la dio
primeramente Laplace que utiliz datos que haban sido ya obtenidos por
Moivre. Por eso la ley normal de distribucin se conoce tambin como ley de
Moivre Laplace.

La ley normal de distribucin de resultados suficientemente precisos solamente
en caso de un nmero grande de ensayos. Debido a ello, pertenece a las leyes
del lmite. Si 20 n y los valores de p difieren lo suficiente de 0 y de 1 (no
divergen muy pronunciadamente de 0.5), la ley normal presenta resultados que
prcticamente no se diferencian de aquellos que ofrece la ley binomial.

Obtengamos la ley normal de distribucin a base de esta ltima. Ms se ha de


tener en cuenta que la ley binomial presenta dos desventajas sustanciales:
La primera consiste en que esta ley es discreta, o sea que la funcin ( ) k p
n
no
es continua, sino que vara discretamente (discontinuamente).Por eso, la suma
de probabilidades ( ) ( ) ( ) ( ) k P b P a P a P a P
b
a k
n n n n n
=
= + + + + + + ..... ) 2 ( 1 no
puede ser sustituida por una integral, incluso en el caso de un nmero n grande
de ensayos. Dicha suma se puede obtener slo por un recuento directo de
todos los sumandos.

Para valores de p que se diferencian considerablemente de 0.5 se emplean otras leyes de


distribucin.
37
La segunda desventaja de la distribucin binomial estriba en que la serie de
distribucin ( )
n
p q + depende de dos parmetros, n y p, lo que prcticamente
priva de la posibilidad de tabular los valores de las probabilidades ( ) k p
n
;
para diferentes valores de la probabilidad p de un suceso en ensayo y para
diversos valores del nmero n de ensayos, tendramos que componer multitud
de tablas.

La ley normal no presenta las desventajas de la distribucin binomial. Adems,
lo que es no menos importante, la ley normal de distribucin, como se ver ms
adelante , se extiende a una clase muy amplia de fenmenos aleatorios y se
aplica no slo al clculo de probabilidades de que el nmero de apariciones de
un suceso quede comprendido dentro de ciertos lmites, sino tambin en
muchos otros casos prcticos de importancia.
Pasemos a la deduccin de la ley normal. Tratando de conservar las
propiedades positivas de la ley binomial, consideremos sus particularidades
siguientes:
1. El argumento k de la distribucin binomial vara discretamente y a
intervalos idnticos, iguales a la unidad;
2. La mayor probabilidad corresponde al valor .
0
np k Representemos
grficamente cierta distribucin binomial ( )
n
p q + .
Para esto, por el eje de las X tracemos consecutivamente segmentos iguales a
la unidad. Sobre el primer segmento, construyamos un rectngulo de altura
( ) 0
0 n
p h = ; en el segundo segmento, un rectngulo de altura ( ) 1
1 n
p h = , sobre
el tercero , un rectngulo de altura ( ) 2
2 n
p h = , etc. Hasta obtener un rectngulo
de altura ( ) n p h
n n
=


38





La superficie comprendida entre el eje de la X y la lnea escalonada por arriba
es igual a la unidad (suma de las probabilidades de un grupo completo de
sucesos).

El carcter de la distribucin queda ilustrado por la lnea escalonada (es decir,
las diferencias entre las probabilidades de los valores continuos) diminuye, y la
misma lnea quebrada se aproxima cada vez ms al eje X, amplindose hacia
la derecha. Lo dicho se ilustra en la figura 2 para las funciones ( ) ( ) k P k P
6 4
+ ,
cuando p = 0.4.

En la ley normilla lnea escalonada se transforma en una curva continua, y al
elegir los argumentos correspondientes al complejo de condiciones, dicha
curva adquiere una forma estndar.
El objetivo final de la primera etapa de deduccin es obtener una funcin
( ) f tal que permita calcular la suma buscada de probabilidades en forma de
integral
( ) ( ) ( ) ( ) b a k donde d f

= = =

2 1
, , ,
2
1

aqu, d corresponde a la variacin de k en la unidad, como argumento de la
funcin ( ) f tomemos la desviacin de la frecuencia relativa del suceso
respecto a su probabilidad. Tal seleccin del argumento confiere an mayor
generalidad para diversos casos particulares.
39
El argumento de la funcin buscada, segn lo convenido, ser

p
n
k
= (I.58)
En tal caso, d , que corresponde a la variacin de k en una unidad, ser:

,
1 1
n
p
n
k
p
n
k
d = |
.
|

\
|
|
.
|

\
|

+
=
o bien,
,
1
n
d =
(I.59)
Teniendo el valor de d , escribamos para la funcin ( ) f y = buscada

), (k nP y
n
=
(I.60)
de donde

( )
n
y k P
n
1
=
o segn (I.59),

( ) ( ) . d f yd k P
n
= =
(I.61)


Hallemos la forma de la funcin ( ) f y = . Para eso escribamos dos igualdades
( )
)
`

=
+ =
+
k nP y
k nP y
n k
n k
) 1 (
1
(I.62)
Dividiendo
1 + k
y entre
k
y , obtenemos
( )
( )
,
1
1
k n
n
k
k
P
k P
y
y +
=
+

o bien, tomando en cuenta (I.41)
.
1 1 1 1
1
q
p
C
C
p q C
p q C
y
y
k
n
k
n
k k n k
n
k k n k
n
k
k
= =
+

+ +
+
(I.63)
Ya que
( ) ( ) ( )
( )
( ) ( )
,
1 ! 1 ! 1
! !
! !
!
:
! 1 ! 1
!
1
+

=
+

=
+
=
+
k
k n
k n k
k n k
k n k
n
k n k
n
C
C
k
n
k
n

Entonces
.
1
1
q
p
k
k n
y
y
k
k

=
+
(I.64)
40
Designando
k k k
y y y =
+ +1
, se puede escribir que
( )
( )p k
p k n
y
y
y
y y
k
k
k
k k
1
1
+

+ =
+
,
o bien,
( ) ( )
( )
( )
.
1
1
q kq
p q k q np
q kq
q kq kp np
p k
q k p k n
y
y
k
k
+
+
=
+

=
+
+
=


Sin embargo, 1 = + p q , por eso
q kq
q k np
y
y
k
k
+

=

(I.65)
Puesto que deseamos obtener una funcin con argumento
p
n
k
= expresemos la igualdad (I.65) en la forma
n
q
q
n
k
n
q
p
n
k
y
y
k
k
+
+
=

(I.66)
Habiendo propuesto que n es suficientemente grande, eliminemos en el
numerador y el denominador de la fraccin (I.66) la magnitud
n
q
. En tal caso,
resulta valido:
( )

+
=

p q y
y
k
k
(I.67)
Pasemos ahora de la ley binomial discreta de distribucin a la funcin contina
( ) f y = . Para esto, recordando que ,
1
n
d = [vese (I.59)], escribamos la
ecuacin diferencial

( )

d
p q
n
y
dy
+
=

(I.68)
Resolviendo la ecuacin (I.68), se obtiene la funcin contina ( ) f y = que alisa
la distribucin binomial. Antes, sin embargo, efectuamos ciertas
simplificaciones, aplicando la descomposicin en serie de Taylor

La ecuacin (I.68)se poda integrar tambin directamente sin tener que recurrir a su
descomposicin en serie; pero, en tal caso se obtendra una funcin incmoda para su empleo
prctico.
41
( )
..... ...... 1
1
1
3
3
2
2 2
2
1
+ + =
|
|
.
|

\
|
+
=
|
|
.
|

\
|
+ =
|
|
.
|

\
|
+
=
+
=


d
q p
n
d
q p
n
d
pq
n
d
p p pq
n
d
p pq
n
p
d
pq
n
d
p q
n
y
dy

o bien,
.....
3
3
2
2
+ + = d
q p
n
d
q p
n
d
pq
n
y
dy
(I.69)
Integrando la ecuacin (I.69), obtendremos

C
q p
n
d
q p
n
d
pq
n
y ln ......
4 3 2
ln
4
3
3
2
2
+ + + + =
(I.70)

(la constante de integracin puede ser representada en cualquier forma).
Si se tiene en cuanta que los valores de p no divergen muy notablemente de
0.5, entonces en el segundo miembro de la igualdad se pueden despreciar
todos sus trminos a excepcin del primero. Esto se deriva del hecho de que
los valores absolutos de , siendo n grande, son considerablemente menores
que la unidad, por eso la serie converge rpidamente.
Ahora se tiene
C d
pq
n
y ln
2
ln
2
+ + = ,
de donde
2
2

=
pq
n
e C y
(I.71)

Puesto que la magnitud
pq
n
siempre es positiva, designemos

=
=
pq
n
h
pq
n
h
2
(I.72)
As pues,

2 2
2
1

=
h
e C y
(I.73)

(el coeficiente 2 1 se ha dejado en el exponente para facilitar el uso ulterior de
tablas existentes).
La curva correspondiente a la frmula (I.73)est situada por encima del eje de
abcisas (puesto que una funcin exponencial, no toma valores negativos) y es
42
simtrica respecto al eje Y (la funcin es par). Las ramas de esta curva se
aproximan en forma de asntotas al eje X.
Hallemos el valor de la constante C. Para ello, recurdese que el rea bajo la
lnea escalonada de la distribucin binomial es igual a la unidad. En vista de
ello, hagamos que el rea bajo la curva de distribucin normal sea tambin
igual a la unidad:

1
2 2
2
1
=

d e C
h
(I.74)
(los lmites + , se han fijado considerando que la curva es asinttica).
Para determinar el valor de la integral en primer miembro de la igualdad (I.74),
designemos
z
h
=
2

(I.75)
de donde,
dz
h
d
2
= (I.76)
Ahora se puede escribir
1
2
=

dz e
h
C
z
(I.77)
(evidentemente, los limites de integracin no varan).
Considerando que la integral en el primer miembro de esta igualdad es igual a
(integral de Poisson), obtenemos
1
2
=
h
C


De aqu
2
h
C =
(I.78)
Teniendo en cuenta (I.71),(I.72), y (I.78), obtenemos, en definitiva, la funcin
buscada ( ) f y = en la forma
2 2
2
1
2

h
e
h
Y

=
(I.79)
Para la probabilidad del nmero k de apariciones del suceso y su
correspondiente valor p
n
k
= , resulta, segn (I.61), que

43
( )

d e
h
P k P
h
n
2 2
2
1
2

= =
(I.80)
La expresin (I.80) muestra que las probabilidades de los valores concretos de
sern insignificantemente pequeos en el caso de un nmero n grande
[vese (I.59)].
Advirtamos que las ordenadas de la curva (I.79) se llaman densidad de la
probabilidad de la distribucin normal.
La funcin (I.79) resulta incmoda, debido a que posee parmetro variable

pq
n
h = ,
por lo que no puede ser representada en una solo grfica o tabulada con una
sola entrada: sta es de hecho una funcin de dos variables, y h , y la forma
de la curva ( ) f y = depende del parmetro h .
Por eso conviene introducir una nueva variable
h t =
, (I.81)
de donde
n
h
hd dt = = (I.82)
Ahora la expresin (I.80) adquiere la siguiente forma

( ) ( ) ( ) dt e t P P k P
t
n
2
2
1
2
1

= = =

(I.83)
La curva de distribucin se estandariza y su funcin correspondiente ( ) t toma
la forma:
( )
2
2
2
1
t
e t

=

(I.84)
La curva correspondiente a (I.84) se muestra en la fig 3. La tabla de valores de
la funcin (I.84) puede consultarse en el apndice 1. Con ayuda de dicha tabla
el valor de ( ) K P
n
se obtiene de la siguiente forma:

1. El valor de t se calcula por las frmulas

=
=
=

h t
pq
n
h
p
n
k
(I.85)
2. En la tabla del apndice 1 se busca la magnitud
44
2
2
1
) (
t
e t

=


3. Por las frmula (I.59) y (I.82) se obtiene
n
h
dt =
(I.86)
4. Se encuentra el valor buscado
( ) dt t k P
n
) ( =
(I.87)

Ejemplo 1. Hallar la probabilidad de aparicin de una bola blanca seis
veces en diez pruebas, si la urna de la que se sacan las bolas contiene
cuatro bolas blancas y seis negras (las bolas son devueltas a la caja).




Solucin .Estn dados: n = 10; k = 6 ; p = 0.4; q =0.6. Utilizando las
frmulas (I.85), (I.86),(I.879 y la tabla del apndice 1, resolveremos el
problema.

288 . 1 20 . 0 44 . 6 ; 44 . 6
6 . 0 4 . 0
10
; 20 . 0 4 . 0
10
6
. 1 = = =

= = = t h
2. De las tablas del apndice 1 obtenemos
( ) 1740 . 0 288 . 1 =
3. 644 . 0
10
44 . 6
= = dt
4. Respuesta:
( ) 112 . 0 644 . 0 174 . 0 = = k P
n

Ejemplo 2. Determinar la probabilidad de que , al arrojar una moneda al
aire 10 veces, caiga cara en cuatro ocasiones.
Solucin. Los datos son
n = 10; k = 4; p = 0.5; q = 0.5.
1. 10 . 0 5 . 0
10
4
= =
45
32 . 6
5 . 0 5 . 0
10
=

= h
632 . 0 = = h t
2. ( ) 327 . 0 632 . 0 = [en el argumento t se ha omitido el signo menos, ya que
la funcin ( ) t es par es decir, ( ) ( ) t t = ].
3. 632 . 0
10
32 . 6
= = dt
4. Respuesta:
( ) ( ) 207 . 0 632 . 0 374 . 0 = = = dt t k P
n

La distribucin binomial proporciona el resultado ( ) 205 . 0 = k P
n

Ejemplo 3. Hallar la probabilidad de que, al jugarse 10 veces un dado caiga
en cuatro de dos ocasiones
Solucin. Los datos son
n = 10; k = 2; p = 0.1667; q = 0.8333.
1. 0333 . 0 1667 . 0 20 . 0 = =
47 . 8
8333 . 0 1667 . 0
10
=

= h
282 . 0 0333 . 0 47 . 8 = = = h t

2. ( ) 383 . 0 282 . 0 =
3. 847 . 0
10
47 . 8
= = dt
4. Respuesta:
( ) ( ) 32 . 0 847 . 0 383 . 0 = = dt t k P
n

La distribucin binomial proporciona el resultado ( ) 29 . 0 k P
n
. Aqu la
discrepancia es mayor debido a que la probabilidad p difiere
considerablemente de 0.5, y el nmero n es pequeo.

Como se ve, incluso en 10 ensayos, la ley normal ya proporciona resultados
que divergen poco de los obtenidos por la ley binomial.
Si n>20 y los valores de p no difieren mucho de 0.5, as como en el caso de
que los valores de no sean muy grandes, los resultados sern lo
suficientemente buenos. Sin embargo, como ya se mencion, en un nmero
grande de ensayos, las probabilidades ( ) k P
n
se tornan tan pequeas que
su cmputo pierde prctico.

10. Integral de probabilidades

Como se indic, cuando el nmero de ensayos es grande, reviste inters
prctico nicamente el clculo del valor
p
b
a
, o sea, de la probabilidad de que el
nmero de apariciones de un suceso se halle comprendido entre los lmites a y
b.
46
La ventaja de la ley normal respecto a la binomial consiste precisamente en
que el valor de
p
b
a
puede obtenerse en forma de integral definida, sin tener que
calcular cada uno de los valores de ( ) k P
n
por separado. En otras palabras, la
suma de las probabilidades ) (k P
b
a k
n
=
se sustituye por la integral
dt e P
tb
ta
t
b
a


=
2
2
1
2
1

(I.88)

cuyos lmites t
a
y t
b
pueden obtenerse como funcin de a y b por las frmulas
(I.85)
La integral definida, como es sabido, es funcin de los lmites de integracin.
Para reducir a uno el nmero de argumentos de esta funcin, generalmente se
estandariza uno de los lmites, lo que permite tabular los valores de la integral
de probabilidades como si fuese una funcin de una sola variable.
La integral de probabilidades ms cmoda, simtrica respecto al eje Y, es la
siguiente:

dt e P
y
t
t

=
2
0
0
2
1
2
1

, (I.89)
(I.89)
Donde
0
son los lmites impuestos a la desviacin de la frecuencia relativa
con respecto a la probabilidad.
La expresin (I.89) muestra que el valor de
0
0

P
crece con el aumento de la
magnitud t. Pero
0

pq
n
t = , de lo cual se deduce que para un valor dado de
p
n
k
= por pequeo quesea, y al aumentar n, la probabilidad
0
0

P
puede
llegar a aproximarse arbitrariamente a la unidad. De este modo queda
demostrado el teorema de Bernoulli del capitulo 3. Dado que la funcin
subintegral de (I.89) es par puede escribirse:


( ) t dt e P
t
t
t
= =

+

2
0
0
2
1
2
1

(I.90)


La funcin (I.90) se llama integral de probabilidades. Es fcil cerciorarse de que
esta integral es funcin de una sola variable t, es decir,
( ) t P =
+

0
0

, donde
47
0
h t = , p
n
a k

=
0
0
;
p
n
a k

+
= +
0
0

; a , son los lmites impuestos a


la desviacin de k respecto de np k =
0
.
La tabla de valores de
( ) dt e t
t t


=
0
2
2
2
2

se dan en el apndice 2.
A veces resulta ms cmodo usar las tablas de las integrales:

( ) t F dt e
t t
p
= =

+

0
2
2
0
2
1

(I.91)

Donde t puede tomar valores tanto positivos como negativos.

La funcin ( ) t F en ocasiones se llama funcin de distribucin normal. En el
apndice 3 se anexa una tabla para encontrar los valores de la funcin ( ) t F .

Dado que la funcin
2
2
t
e

no se integra en funciones elementales, al


confeccionarse las respectivas tablas, los valores de ( ) ( ) t yF t (apndices 2 y
3).Mostraremos esto con ejemplos



Ejemplo 1.El porcentaje medio de artculos de primera calidad producidos por
una fbrica es igual a 73. Hallar la probabilidad de que entre 100 artculos
tomados al azar resulte, de primera calida, no menos de 69 y no ms de 77.
Solucin Los datos son n = 100; p = 0.73; q = 0.27; K
1
= 0.69; K
2
= 0.77.

1.
04 . 0 73 . 0 77 . 0
; 04 . 0 73 . 0 69 . 0
2
1
+ = =
= =


Dado que
0 2 1
= = , se pueden utilizar las tablas de valores de ( ) t .

2. 5 . 22
27 . 0 73 . 0
100
=

= h




3. 90 . 0 04 . 0 5 . 22
0
= = = h t
4. De la tabla del apndice 2 se obtienen la respuesta.

Al solucionar los ejemplos hay que recordar que una integral es numricamente igual al rea
limitada arriba por la curva, y a izquierda y derecha, por las ordenadas de los lmites de
integracin.
48
( ) 63 . 0 = t

Ejemplo 2. A partir de las condiciones del ejemplo anterior, calcular la
probabilidad de que el nmero de artculos de primera calidad, escogidos al
azar, no sea menor de 70, es decir, de que sea mayor o igual a 70.
Solucin: Encontremos primeramente la probabilidad del suceso opuesto,


Fig. 4
Esto es, la probabilidad de que la cantidad de los artculos de primera calidad
sea menor de 70, o sea de que su nmero est comprendido entre 0 y 69, esto
lo da la integral de ( ) 90 . 0 F . Por la tabla del apndice 3 obtenemos
( ) 184 . 0 90 . 0 = F
La probabilidad buscada ser igual a 816 . 0 184 . 0 1 =

Ejemplo 3.Calcular la probabilidad de que al arrojar cien veces una moneda el
nmero de apariciones de caraest comprendido entre los lmites de 45 y 60.
Solucin. Aqu tambin puede emplearse la funcin ( ) t F :
; 05 . 0 50 . 0
100
45
1
= = ; 10 . 0 50 . 0
100
60
2
+ = =

; 20
5 . 0 5 . 0
100
=

= h
( )
2 10 . 0 20
; 01 05 . 0 20
2
1
= =
= =
t
t


Respuesta:
( ) ( ) 818 . 0 159 . 0 977 . 0 1 2
60
45
= = = F F P

La integral de las probabilidades puede tambin obtenerse discurriendo de otro
modo. Hagamos la respectiva deduccin.
Tomemos, como expresin de partida, la frmula siguiente:
( ) ( ) k P b k a P
b
a k
n
=
= < < (I.92)
Los valores de ( ) k P
n
, como es sabido, se pueden obtener por la frmula (I.41)
( )
k k n k
n n
p q C k p

= ;
Donde
( )! !
!
k n k
n
C
k
n

=
De lo que se deriva:
49
( )
( )
k k n
n
p q
k n k
n
k p

=
! !
!
(I.93)
Poniendo la frmula (I.93) los factoriales n!, k!, n-k)! correspondientes a la
frmula (I.43), obtendremos

( )
( )
k k n
k n k
n
k k n
n
p q
e
k n
k n
e
k
k
e
n
n
p q
k n k
n
k p

|
.
|

\
|

|
.
|

\
|
|
.
|

\
|
=

=
) ( 2 2
2
! !
!

(I.94)
Tras algunas simplificaciones resulta que:

( )
k k n
k n k
n
n
p q
k n k k n k
n n
k p



=
) ( ) ( 2
(I.95)
Tomando
k n k n
n n n

=
Volvamos a escribir la expresin (I.95) de la forma siguiente:

( )
k n k
n
k n
nq
k
np
k n k
n
k p

|
.
|

\
|

|
.
|

\
|

=
) (
2
1

(I.96)
En el tema 8, para el nmero ms probable k
0
de apariciones de un suceso en
ensayos reiterados se dedujo la frmula (I.57), segn la cual np k
0
. En vez
del nmero de apariciones del suceso k, vamos a considerar su desviacin con
respecto a k
0
, es decir,
np k k = (i.97)
Teniendo en cuenta (I.97), transformemos la frmula (I.96)
( )
k np k np
n
nq
k
np
k
np
k
np
k
npq
k p
+
|
|
.
|

\
|

|
|
.
|

\
|
+
|
|
.
|

\
|

|
|
.
|

\
|
+
=
1 1 1 1
1
2
1

(I.98)
Suponiendo que p y q no sean nmero cercanos a cero ni a la unidad, en un
nmero lo suficientemente grande de ensayos, las fracciones
np
k
y
nq
k
sern
magnitudes pequeas y, por consiguiente,
1
1 1
1

|
|
.
|

\
|
+
|
|
.
|

\
|
+
nq
k
np
k
(I.99)
Simplifiquemos en (I.98) los ltimos dos factores de la expresin subradical.
Para ellos encontremos primeramente sus logaritmos
50

|
|
.
|

\
|
+ + =
|
|
.
|

\
|
+

np
k
k np
np
k
k np
1 ln ) ( 1 ln

|
|
.
|

\
|
+ =
|
|
.
|

\
|

+
np
k
k np
np
k
k np
1 ln ) ( 1 ln
(I.100)
Descomponiendo en series
|
|
.
|

\
|
+
np
k
1 ln y
|
|
.
|

\
|

np
k
1 ln segn las potencias de
np
k
y
nq
k
, obtendremos

=
|
|
.
|

\
|

=
|
|
.
|

\
|
+
.....
2
1 ln
....
2
1 ln
2 2
2
2 2
2
q n
k
nq
k
nq
k
p n
k
np
k
np
k
(I.101)

Al sustituir (I.101) en (I.100), se tiene

( )
( )

=
|
|
.
|

\
|
+

=
|
|
.
|

\
|

=
|
|
.
|

\
|
+

+ =
|
|
.
|

\
|
+
+

...
2
.....
2
1 ln
.....
2
....
2
1 ln
2
2 2
2
2
2 2
2
nq
k
k
q n
k
nq
k
k nq
nq
k
np
k
k
p n
k
np
k
k np
np
k
k nq
k np
(I.102)

Valindonos de la definicin del logaritmo, podemos volver a escribir la
expresin (I.102) en la siguiente forma:

=
|
|
.
|

\
|

=
|
|
.
|

\
|
+



...
2
.....
2
2
2
1
1
nq
k
k
k nq
np
k
k
k np
e
nq
k
e
np
k
(I.103)
Una vez sustituidos los respectivos valores de los dos ltimos factores en la
expresin subradical de (I.98) por los de (I.103), se obtendr
( )
....
2
.....
2
2 2
2
1
+


=
nq
k
k
np
k
k
n
e e
npq
k p

(I.104)


Teniendo en cuenta que
( )
npq
k
npq
k p k p
npq
k p k q
nq
k
k
np
k
k
2 2
1
2 2 2
2 2 2
2 2 2 2

=

=

=


(I.105)
51

Obtendremos
( )
.....
2
2
2
1
+

=
npq
k
n
e
npq
k p

(I.106)
Sustituyamos en (I.106)
2
k por la expresin
2
np k tras lo cual resulta
( )
( )
.....
2
2
2
1
+

=
npq
np k
n
e
npq
k p

(I.107)
La frmula (I.107) puede aplicarse en el clculo de la probabilidad de n nmero
k de apariciones de un suceso k veces en caso de n ensayos
npq
np k
x

= (I.108)

Aumentemos el nmero de apariciones de k en una unidad y, bajo esta
condicin, determinemos por la frmula (I.108) el incremento de la nueva
variable x

=
+
= +
npq
np k
x
npq
n k
x x
1
(I.109)
Sustrayendo en (I.109) la expresin inferior de la superior, obtendremos
npq
x
1
= (I.110)
La frmula (I.107), tomando en consideracin (I.108) y (I.110), adquiere la
forma
( ) x e k p
x
n
=

2
2
2
1

(I.111)

Pongamos el valor de ( ) k P
n
de (I.111) en (I.92)
( ) x e b k a P
b
a k
x
= < <

=

2
2
2
1

(I.112)
Pasando de la funcin discreta
x e
x

2
2
2
1

a una funcin contina alisante, se


puede en (I.112) sustituir el signo de suma por el de integral, y escribir dicha
Funcin as:
( ) dx e b k a P
a
x


= < <

2
2
2
1
(I.113)
Si se toma t t a + = = , , la integral de las probabilidades, en vista de (I.113),
tomar la forma
52

( ) dx e t
t
x


=
0
2
1
2
2
2

(I.114)
En la frmula (I.113), los limites ayb de la suma relativos a la variable k han sido
sustituidos por los lmites de integracin que corresponden a la variable x,

=
npq
np b
npq
np a

(I.115)

Es fcil mostrar que la variable x en la frmula (I.113) es la misma que la
variable t en la igualdad (I.88).
Si dividimos por n el numerador y el denominador del segundo miembro de la
frmula (I.108), obtendremos

h
pq
n
p
p
k
n
pq
p
n
k
x =
|
|
.
|

\
|
=

=

Es decir, segn (I.81) h t = .
Una particularidad de la ley normal de distribucin es el carcter asinttico de
su curva de distribucin respecto al eje t. De aqu se deduce que a la variacin
de t desde hasta + le corresponde un grupo completo de sucesos, dado
que se sabe con certeza que los valores de varan entre lmites finitos. En
efecto, los valores ms pequeos y ms grandes de p
h
k
= son

= = =
= =
q p p
n
n
p p
n
mx
1
0
min

(I.116)

No obstante, en los casos en que se tienen valores de n suficientemente
grandes y valores de p que no divergen notablemente de 0.5, el efecto de dicha
particularidad de la ley normal no acusa prcticamente influencia sustancial en
los resultados. Para cerciorarse de ello, calculemos los valores de la integral

( ) ( ) hp F hq F dt e
hp
hp
t
=

2
2
2
1


En los siguientes ejemplos


53
Ejemplos
1. Los datos son: n = 20 ; p = 0.2; q = 0.8.
Solucin
2 . 11 ; 125
16 . 0
20
= = = h h ;
( ) 987 . 0 013 . 0 1 ) 24 . 2 ( 9 ; 24 . 2 ; 9 = = = = F F hp hq

2. Los datos son: n = 10 ; p = 0.4; q = 0.6.
Solucin
4 . 6
24 . 0
10
= = h ;
( ) 995 . 0 ) 56 . 2 ( 84 . 3 ; 56 . 2 ; 84 . 3 = = = F F hp hq

3. Los datos son: n = 100 ; p = 0.1; q = 0.9.
Solucin 3 . 3 ; 30 ; 33 = = = hp hq h y la probabilidad buscada ser 0.9995.

Como se ve, cuando el nmero n es muy grande, los valores de p pueden
diferenciarse sensiblemente de 0.5; en cambio, si p es de valore prximo a
0.5, la ley normal ofrece resultados precisos, aun en el caso de 10 ensayos.

11 Variables aleatorias

Se denomina variable aleatoria a la magnitud variable que caracteriza
numricamente un fenmeno aleatorio y refleja la diversidad de las
incontables variaciones de las condiciones bajo las cuales se efectan los
ensayos. De ese modo, al realizar un ensayo, tropezamos con una variable
aleatoria cuyo valor concreto se desconoce. El conjunto de valores posibles
de una variable aleatoria forma y grupo complejo de sucesos aleatorios (es
evidente que los valores de una variable aleatoria obtenidos durante los
ensayos deben considerarse como sucesos aleatorios).
He aqu algunos ejemplos de variables aleatorias:

1. El nmero de apariciones de un suceso o de su frecuencia relativa en
ensayos reiterados.

2. El nmero de granos de espigas de trigo de cierta calidad.

3. El nmero de aciertos en el tiro al blanco.

4. Los resultados de mediciones de una misma magnitud en condiciones
iguales, cuando se conoce el valor exacto de sta. Los resultados de las
mediciones oscilarn en trono al valor exacto, y no es posible predecir
ningn resultado; se puede slo, partiendo de la experiencia de
mediciones anlogas, indicar los lmites de variacin de los valores
observados de dicha variable aleatoria, esto es, de los resultados de las
mediciones o de las desviaciones de stos respecto al valor exacto.

54
De los ejemplos anteriormente citados el primero ocupa un lugar especial y lo
hemos tratado ya en detalle. La particularidad de la frecuencia relativa e un
suceso como magnitud aleatoria estriba en que sus propiedades quedan
completamente predeterminadas por la probabilidad dada del suceso y por el
nmero de ensayos. Para determinar las propiedades de cualquier variable
aleatoria se requiere n caractersticas ms generales, de las cuales se hablar
a continuacin.
Estas caractersticas generalizadas sern igualmente vlidas para la frecuencia
relativa de un suceso. De tal modo, resulta conveniente introducir el concepto
de variable aleatoria para una ulterior generalizacin de las nociones de la
teora de la probabilidad.
Entre los diversos tipos de variables aleatorias, las que revisten mayor inters
son las variables discretas (o discontinuas) y las continuas.

Variable aleatoria discreta es aquella que puede tomar valores particulares,
aislados, con probabilidades definidas. El nmero de valores posibles de una
variable aleatoria discreta puede ser finito e infinito. Nosotros trataremos
nicamente de variables aleatorias discretas con un nmero finito de valores
posibles, los cuales pueden ser indicados de antemano (por ejemplo, el nmero
de aciertos a un blanco en tres disparos: 0, 1, 2, 3. La frecuencia relativa de
acierto en tres disparos ser, respectivamente ; 1 , 3 2 , 3 1 , 0 o bien el nmero de
errores por defecto en cinco mediciones: 0, 1, 2, 3, 4, 5; el nmero de
apariciones de un suceso en ensayos mltiples etc.).

Se llama variable aleatoria continua a aquella cuyos valores cubren
continuamente ciertos intervalos finitos o infinitos

Ejemplo. Tiramos a un blando que tiene forma de cuadrado de lado a. El
origen de las coordenadas coincide con la diana del blanco. Al suceso
consistente en el acierto al blanco le corresponde la siguiente condicin

2
2
a
y
a
x


De tal modo, si el suceso aleatorio (acierto al blanco) ocurre, se puede
asegurar que las coordenadas del punto de impacto x e y se encuentran entre
los lmites de
2 2
a
y
a
; sin embargo, es posible enumerar los valores posibles
de las coordenadas de los puntos de impacto.

Claro est que los valores concretos de una variable aleatoria en un nmero
limitado de ensayos puede discrepar notablemente uno de otro, y en este
sentido la magnitud no parece continua, a pesar de que no es posible enumerar
dichos valores con antelacin. Sin embargo, aqu se trata de los valores
posibles de una variable aleatoria , es decir, de aquellos que sta puede tomar
en el proceso de su estudio.
55
El nmero de valores observados de una variable es siempre finito.

12. Leyes de distribucin de las variables aleatorias

Para describir cabalmente una variable aleatoria discreta no basta conocer sus
valores posibles; es necesario, adems, conocer las probabilidades
correspondientes a estos valores.


La regla que expresa la relacin entre los valores posibles de una variable
aleatoria y las respectivas probabilidades de stos recibe el nombre de ley de
distribucin de una variable aleatoria.
La ley de distribucin de una variable aleatoria discreta puede expresarse en
tres formas: analtica, numrica y grfica.

1. Como ejemplo de una expresin analtica de una ley de distribucin
para variables aleatorias discretas tomemos el clculo por la frmula
(I.41) de la probabilidad de que unos sucesos aparezcan k veces en n
ensayos.
En esta frmula, a cada valor posible del nmero de apariciones
( ) n i K
i
,...., 3 , 2 , 1 , 0 = de un suceso le corresponde la probabilidad ( ) k P
n
.

2. La ley de distribucin de una variable aleatoria discreta puede estar
dada numricamente en la forma de una tabla de distribucin, en la
cual se enumeran los valores posibles de la variable aleatoria y sus
respectivas probabilidades.

x
P
1
1
x
P
2
2
x
P
3
3
x
P 4
4
x
P
Una tabla de distribucin suele llamarse tambin serie de distribucin de
una variable aleatoria X.

3. Grficamente la ley de distribucin de una variable aleatoria discreta
puede estar expresada en forma de un polgono de distribucin. Para
trazar dicha figura en un sistema de coordenadas rectangulares se
marcan los puntos ( )( ) n i p x
i i
,...... 1 , = donde x
i
son los valores posibles de
la magnitud aleatoria X, y p
i
, las probabilidades correspondientes a estos
valores. Los puntos marcados se unen por segmentos de rectas. La
figura resultante se llama polgono de distribucin.



Ejemplo Construir el polgono de distribucin con los datos de la tabla 2.

Solucin. Marquemos a lo largo del eje de abscisas los valores de X
i
(tomando
una escala de unidades igual a 0.47 cm. para una aparicin de error), y a lo
largo del eje de ordenadas las probabilidades p
i
(0.47 cm. Corresponde a
56
256
10
= P Trazando los puntos ( )
i i
p x , y unindolos por segmentos obtenemos
el polgono de distribucin buscado (Fig 5).

Evidentemente, no es posible confeccionar una tabla de distribucin o trazar el
respectivo polgono para una variable aleatoria continua, por cuanto una
variable continua posee un conjunto infinito (o dicho ms exactamente,
innumerable)de valores posibles.
Por consiguiente, surge la necesidad de obtener un mtodo de expresin de la
ley de distribucin que sea til tanto para las magnitudes aleatorias discretas
como para las continuas.
Con este fin se introduce una funcin de distribucin de las probabilidades de la
variable aleatoria X (o, dicho en otros trminos, una funcin de integracin).
Hasta aqu habamos tratado de la probabilidad del suceso X = x . Ahora
vamos a considerar la probabilidad del suceso X < x , es decir, la probabilidad
de que, como resultado de un ensayo, la variable aleatoria X tome un valor
menor de cierto nmero real x (puede demostrarse que para una variable
aleatoria continua la probabilidad del suceso X = X es igual a cero, por lo cual
considerar la probabilidad de tales sucesos carece de inters).

Es evidente que al variar x var tambin la probabilidad ( ) x X P < , es decir,
( ) x X P < es una funcin de x, y precisamente a esta funcin se le llama funcin
de distribucin y se la designa por F(x).
As, pues la funcin de distribucin se define por la igualdad

( ) ( ) x X P x F < =
(I.117)

Partiendo de la definicin de funcin de distribucin, fcilmente se demuestra
que ella posee las siguientes propiedades:

1. los valores de la funcin de distribucin pertenecen al segmento [1, 0];
2. la funcin de distribucin no es decreciente
3. Si los valores posibles de una variable aleatoria pertenecen al intervalo
(a, b), entonces

( ) 0 = x F
para ; a x ( ) 1 = x F para ; b x
57

La funcin de distribucin de una variable aleatoria continua es continua( y
continuamente derivable), es por eso que se puede derivar tal funcin de
distribucin.
Llmese densidad de distribucin de las probabilidades de una variable
continua

a la derivada de su funcin de distribucin, es decir, la densidad de


la probabilidad se define por medio de la igualdad

( ) ( ) x F x f ' =

Puede demostrarse que la densidad de la probabilidad
( ) x f
posee siguientes
propiedades:

1. La densidad de la probabilidad es una funcin no negativa, es decir,
( ) 0 x f

2. La integral impropia de la densidad de la probabilidad, entre los lmites
y + , es igual a la unidad, o sea,
( ) 1 =

+

dx x f

En particular, si los valores posibles de la variable aleatoria pertenecen
al intervalo (a, b) , entonces

( ) 1 =

dx x f
b
a


3. La probabilidad de que la variable aleatoria continua, a resultas de un
ensayo, tomo un valor perteneciente al intervalo (a, b) se determina por
la igualdad

( )dx x f P
b
a
b
a

=

En este libro se estudiarn principalmente las variables aleatorias que se
someten a la ley normal de distribucin. Casi todas las magnitudes aleatorias
con las que tropieza el geodesta son de distribucin normal.







En ocasiones se le llama funcin diferencial de distribucin (o ley diferencial de distribucin)



58
13. Caractersticas principales (parmetros de distribucin)
de una variable aleatoria

Las propiedades de una variable aleatoria pueden caracterizarse por varios
parmetros. De entre, los ms importantes son la esperanza matemtica de la
variable aleatoria, la cual se designa ( ) x M , y la varianza ( ) ( ) x x D
2
= , raz
cuadrada de la cual ( ) x se denomina desviacin tpica (o estndar). Los
restantes parmetros de las variables aleatorias se estudiarn en el capitulo II.


1. Esperanza matemtica

Llmese esperanza matemtica ( ) x M de una variable aleatoria discreta X a la
suma de los productos de todos los valores posibles de la variable aleatoria por
las probabilidades respectivas.
As, pues, si se cuenta con una tabla de distribucin y a condicin de que el
nmero de valores posibles de la variable aleatoria sea finito, puede escribirse,
segn la definicin de esperanza matemtica, que

( )
i
n
i
i n n
p x p x p x p x x M

=
= + + =
1
2 2 1 1
......
(I.118)
donde
1
1
=

=
i
n
i
p
, por cuanto la aparicin de uno de los valores posibles x
i
es
un suceso cierto.
Si extendemos la expresin de la esperanza matemtica (I.118) a variables
discretas que tengan un nmero infinito de valores posibles x
i
, obtendremos

( )
i
n
i
i
n
p x x M

=

=
1
lim
(I.119)
con la particularidad de que se supone que la serie (I.119) converge
absolutamente.

Considerando en que (I.118) y (I.119)
1
1
=

=
i
n
i
p
, a veces se escribe

( )

=
=
=
n
i
i
i
n
i
i
P
p x
x M
1
1
(I.120)
La frmula (I.120) permite dar la siguiente interpretacin mecnica a la
Esperanza matemtica: ( ) x M sera la abscisa del centro gravedad de un
sistema de puntos cuyas respectivas abcisas seran iguales a los valores
59
posibles de la variable aleatoria, y las masas colocadas en estos puntos seran
iguales a las respectivas probabilidades.

Llmese esperanza matemtica de una variable aleatoria continua X a la
integral

( ) ( )dx x xf x M

+

=
(I.121)
Suponiendo que la integral converge absolutamente. Aqu ( ) x f es la densidad
de la probabilidad de distribucin de la variable aleatoria X.

Ejemplo. La probabilidad de dar en el blanco de un disparo es p = 0.5 .
Calcular la esperanza matemtica del nmero de aciertos en cuatro disparos.
Solucin.Las probabilidades de los nmeros posibles de aciertos 0, 1, 2, 3, 4
respectivamente, son:

( ) ( ) 0625 . 0 0 ;
2
1
1 0
4
4
0 4 0
4 4
= |
.
|

\
|
= = P p q C P

( ) ( ) 2500 . 0 1 ;
2
1
4 1
4
4
1 3 1
4 4
= |
.
|

\
|
= = P p q C P

( ) ( ) 3750 . 0 2 ;
2
1
6 2
4
4
2 2 2
4 4
= |
.
|

\
|
= = P p q C P

( ) ( ) 2500 . 0 3 ;
2
1
4 3
4
4
3 1 3
4 4
=
|
.
|

\
|
= = P p q C P

( ) ( ) 0625 . 0 4 ;
2
1
1 4
4
4
4 0 4
4 4
= |
.
|

\
|
= = P p q C P

____________________________________________

Control: ( ) 0000 . 1
4
0
=

=
k P
K
n

La esperanza matemtica del nmero de aciertos en cuatro disparos ser:
( ) 2 625 . 0 4 250 . 0 3 375 . 0 2 250 . 0 1 625 . 0 0 = + + + + = x M

El sentido real de la esperanza matemtica se vuelve ms claro si se establece
su relacin con la media aritmtica. Hagamos notar que se llama media
aritmtica la magnitud que se calcula por la siguiente formula:

=
=
N
i
i
x
N
x
1
1
(I.122)
Vamos a mostrar que en un nmero infinitamente grande de ensayos la
esperanza matemtica de una variable aleatoria es el lmite de la media
aritmtica. El discurso versar aplicndose la frmula (I.118), es decir ser
60
vlido para las variables aleatorias discretas, aunque todas las conclusiones
puedan extenderse tambin a las variables aleatorias continuas haciendo uso
de la frmula (I.121).
Supongamos que, como resultado de N ensayos, la variable aleatoria x haya
tomado los siguientes valores

x
1
ha aparecido m
1
veces
x
2
ha aparecido m
2
veces
x
3
ha aparecido m
3
veces
.
X
n
ha aparecido m
n
veces
Al mismo tiempo,
N m m m
n
= + + ......
2 1

Basndonos en la frmula (I.122), podemos escribir
N
m x m x m x
x
n n
+ + +
=
.....
2 2 1 1
, (I.123)
o bien
N
m
x
N
m
x
N
m
x x
n
n
+ + + = ........
2
2
1
1
(I.124)
Aqu, las fracciones


N
m
N
m
N
m
n
,........ ,
2 1

Segn la definicin (I.4) son las frecuencias relativas, es decir,

n
n
Q
N
m
Q
N
m
Q
N
m
= = = ,........ ;
2
2
1
1

Por lo tanto
n n
Q x Q x Q x x + + + = ........
2 2 1 1
(I.125)
A base del teorema de Bernoulli , reemplazando en (I.125) los valores Q
i
por
los respectivos valores de p
i
, obtenemos

Prob. ( ) X M x lm
N
=

(I.126)
De ese modo, la esperanza matemtica M (x) es la media terica de una
variable aleatoria.
Teniendo en cuenta lo dicho, en adelante designaremos, a veces,

( ) X x M =

(I.127)

Veamos las propiedades de la esperanza matemtica. Estas son vlidas tanto
para las magnitudes continuas como para las discretas. Para simplificar, nos

En el pargrafo 17 se da una demostracin ms rigurosa de la propiedad tratada en (I.126). El


valor de X se conoce tambin con el nombre de media general
61
limitaremos a demostrar las propiedades de la esperanza matemtica para
variables discretas
Primera propiedad: La esperanza matemtica se mide en las mismas
unidades que la variable aleatoria.
Demostracin: Es evidente que los valores posibles de una variable sern de
la misma dimensionalidad que sta .Cmo se deduce de la igualdad (I.118), los
valores posibles X
1
, X
2
X
n
se multiplican por sus respectivas probabilidades,
las cuales son nmeros adimensionales .De aqu se deriva la validez de la
propiedad demostrada.

Segunda propiedad: La esperanza matemtica puede ser bien un nmero
positivo o bien negativo.
Demostracin: Esta propiedad se deduce a partir de que los valores posibles
de una variable aleatoria pueden ser nmeros positivos o negativos.

Tercera propiedad: La esperanza matemtica de una constante C es igual a
dicha constante, es decir,
( ) C C M =
Esta propiedad es evidente.

Cuarta propiedad. (Teorema de la suma de las esperanzas matemticas). La
esperanza matemtica de la suma de unas cuantas variables aleatorias es
igual a la suma de las esperanzas matemticas de dichas variables, es decir,

( ) ( ) ( ) ( ) W M Y M X M W Y X M + + + = + + ...... ..... (I.128)

En particular, para dos variables aleatorias

( ) ( ) ( ) Y M X M Y X M + = + (I.129)

Para mayor sencillez, demostraremos la cuata propiedad para el caso de dos
variables aleatorias, es decir, la validez de la frmula (I.129).
Demostracin. Segn la definicin de la esperanza matemtica, la expresin
(I.129) puede escribirse as:

( ) ( )
ij
n
i
k
j
i i
p y x Y X M

= =
+ = +
1 1
(I.130)

Donde p
ij
es la probabilidad de aparicin simultnea de x
i
y y
j
.
La expresin (I.130) puede escribirse as:

( )

= = = =
+ = +
n
i
ij
k
j
i
n
i
k
j
ij i
P y P x Y X M
1 1 1 1
(I.131)

62
Teniendo en cuenta que

=
k
J
ij
P
1
es la probabilidad p
i
de que X tome el valor x
i
, y
que

=
n
i
ij
P
1
es la probabilidad p
i
de que Y tome el valor y
i
, obtenemos


( )
j
k
j
j i
n
i
i
p y P x Y X M

= =
+ = +
1 1
(I.132)
Considerando que el primer sumando de (I.132) es M (X) y el segundo es M
(Y), obtenemos definitivamente:

( ) ( ) ( ) Y M X M Y X M + = + (I.133)

Es fcil extender esta demostracin a cualquier nmero de sumandos por va
de induccin matemtica.
Antes de pasar a la quinta propiedad, cabe notar que dos variables aleatorias
se llaman independientes, si la ley de distribucin de una de ella no depende
de los valores que tome la otra. Respectivamente varias variables aleatorias se
llaman recprocamente independientes, si las leyes de distribucin de
cualquiera de ellas no dependen de los valores tomados por las otras variables.

Quinta propiedad (Teorema de la multiplicacin o del producto de las
esperanzas matemticas). La esperanza matemtica de dos o varias variables
aleatorias recprocamente independientes es igual al producto de las
esperanzas matemticas de esas variables, o sea:

( ) ( ) ( ) Y M X M XY M = (I.134)

( ) ( ) ( ) ( ) W M Y M X M W Y X M ...... ..... = (I.135)

Demostracin. Basndonos en la definicin de la esperanza matemtica,
podemos escribir

( ) ( ) ( )
i i
n
i
k
j
i i
y x p y x XY M

= =
=
1 1
(I.136)

Donde x
i
e y
j


son los valores posibles de las variables X e Y, respectivamente;
( )
i i
y x P es la probabilidad del producto
i i
y x .
Para las variables aleatorias independientes

( ) ( ) ( )
j i j i
y p x P y x P =

por eso
63
( ) ( ) ( ) ( ) ( )
j
k
J
j i
n
i
i j i
n
i
k
j
j i
y p y x p x y p x p y x XY M

= = = =
= =
1 1 1 1
(I.137)



Utilizando la definicin de la esperanza matemtica, obtendremos finalmente

( ) ( ) ( ) Y M X M XY M = (I.138)
Esta propiedad demostrada es fcil de extender a cualquier nmero de
variables aleatorias recprocamente independientes por induccin matemtica.

Sexta propiedad. La esperanza matemtica del producto de una variable
aleatoria por una constante C es igual a la esperanza matemtica de la variable
aleatoria por la constante, es decir,

( ) ( ) X CM CY M = (I.139)

Demostracin. Partiendo de la quinta propiedad

( ) ( ) ( ) Y M X M XY M = .
Y , segn la tercera propiedad

( ) C C M =
Por consiguiente

( ) ( ) X CM CY M =
En la prctica, se toma x como el valor aproximado de ( ) x M . Al aumentar el
nmero de ensayos, el valor de x se aproxima ms, segn su probabilidad, al
de ( ) x M

2. Caractersticas complementarias de una variable aleatoria

Para caracterizar plenamente la distribucin de una variable aleatoria , adems
de las caractersticas principales ( )
2
y X , se emplean otras ms. Entre ellas,
en particular, est la asimetra y el exceso (grado de declive, o sea el de
escarpado o aplanamiento del vrtice de la curva de distribucin). Todas estas
caractersticas vienen a ser casos particulares de un concepto ms general, el
de los momentos.
Los momentos se dividen en iniciales y centrales.
Se llama momento inicial de grado k de una variable aleatoria X a la
esperanza matemtica en la potencia k de dicha variables aleatoria, o sea,

( )
k
k
X M v = (I.140)

64
Se llama momento central de grado k de una variable aleatoria X a la
esperanza matemtica de potencia k de la discrepancia de la variable aleatoria
respecto a su esperanza matemtica

( ) | |
k
k
X X M = u (I.141)

Prcticamente, dichos momentos (llamados tericos) se calculan por las
siguientes frmulas empricas:

n
x
v
n
i
k
i
k

=
=
1
(I.142)


( )
n
x x
n
i
k
i
k

=

=
1
u (I.143)
donde n es el nmero de observaciones, y el apstrofe sirve para denotar que
se trata de un momento emprico

.
En adelante consideraremos principalmente los valores empricos de los
momentos de las frmulas (I.142) y (I.143).
Partiendo de las frmulas (I.140) y (I.141) y aplicando las propiedades de la
esperanza matemtica, se establecen fcilmente relaciones.

+ =
=
=
=
=
=
3
1 2 1 3 3
2
1 2 2
1
1
0
2 3 )
)
0 )
)
1 )
1 )
v v v v f
v v e
d
X v c
b
v a
o
u
u
u
u
(I.144)
Las caractersticas principales X y ( ) X D son, respectivamente, iguales a
1
v X = y ( ) X D =
2
u
En la ley normal de distribucin, para los momentos centrales pares existe la
relacin comn
( )
2 2 2 2
1 2 u u u
i i
i + =
+
(I.145)
Las igualdades (I.144) y (I.145) son tericas. Si, en cambio se tienen en cuenta
los valores empricos de los momentos obtenidos por las frmulas (I.142) y
(I.143), entonces de las igualdades anteriores se cumplen exactamente slo
(I.144, a, b, d, e y f). La igualdad (I.145) puede servir de control para las
distribuciones estadsticas en lo que respecta al a correspondencia de stas
con la normal, en caso de un nmero muy grande de observaciones.

Los mementos empricos son llamados tambin estadsticos


65

3. Varianza y Desviacin

La varianza , como una de las ms importantes caractersticas numricas de
una variable aleatoria, permite estimar la dispersin de los valores posibles de
la variable aleatoria en torno a la esperanza matemtica , dispersin provocada
por las propiedades de la variable aleatoria, o por la presencia en el ensayo de
errores de observacin debidos a fluctuaciones en las condiciones y a otros
factores..
Sin embargo, los valores particulares de las desviaciones X M (X) por s
mismas caracterizan poco, y la esperanza matemtica de la discrepancia de
una variable aleatoria, como es fcil ver, es igual a cero debido a la mutua
compensacin de los valores positivos y negativos de las desviaciones. La
media de los valores absolutos de estas desviaciones no siempre da buen
resultado al estimar la dispersin, ya que los resultados se alisan mucho y las
desviaciones grandes se tornan poco perceptibles, en especial en el caso de
un nmero considerable de ensayos.

Con el objetivo de eliminar las mencionadas deficiencias, suelen considerarse
no las desviaciones mismas, sino los cuadrados de estas. En tal caso las
desviaciones grandes acusarn una influencia en el resultado final
considerablemente mayor que las pequeas.
La utilizacin para este efecto de potencias mayores de X M (X), a saber, la
cuarta, sexta, etc., exige aumentar ostensiblemente el nmero de ensayos, ya
que de lo contrario disminuye la seguridad de las caractersticas numricas del
clculo.

Se llama varianza D (X) de una variable aleatoria X la esperanza matemtica
del cuadrado de la desviacin del valor de la variable aleatoria respecto a su
esperanza matemtica, o sea,
( ) ( ) | | { }
2
X M X M X D = (I.146)
Para una variable aleatoria discreta X

( ) ( ) { }
i
n
i
i
p X M x X D
2
1

=
=
La varianza puede obtenerse tambin por la frmula siguiente:

( ) ( ) ( ) | |
2 2
X M X M X D = (I.147)
En efecto, aplicando las propiedades de la esperanza matemtica , se obtiene

( ) ( ) | | { } ( ) ( ) | | { } ( ) ( ) ( ) ( ) | |
( ) | |
2 2
2 2 2 2 2
) (
2 2
X M X M
X M X M X M X M X M X XM X M X M X M X D

= + = + = =

es decir,
( ) ( ) ( ) | |
2
2
X M X M X D =

66
Para una variable aleatoria continua X se tiene

( ) ( ) | | { } ( )dX X f X M X X D =

+

2
(I.148)


De acuerdo con la frmula (I.147), la expresin (I.148) puede adquirir la
siguiente forma:

( ) ( ) ( ) | |
2 2
X M dx x f x X D =

+

(I.149)

la magnitud ( ) ( ) X D X = se llama desviacin tpica ( a veces desviacin
estndar) . La desviacin tpica posee, respecto a la varianza, un ventaja
indiscutible: es de la misma dimensin que la variable aleatoria. Cabe notar que
la varianza es de una dimensin igual al cuadrado de la dimensin de la
variable aleatoria.
A veces se emplea una caracterstica numrica relativa de la dispersin, el
llamado coeficiente de variacin y que representa la razn entre la desviacin
tpica y la esperanza matemtica y se expresa en tanto %, es decir,

( )
% 100 =
X M
v

(I.150)
a excepcin, claro est, del caso M (X) = 0, o bien cuando su valor es muy
pequeo frente al de .
Practcame, la varianza se calcula por la frmula

( ) ( )
2
1
1
1

N
i
i
x x
N
X D (I.151)
Esta frmula hallar su fundamento en el tema 20.
Evidentemente, la confiabilidad del valor de la varianza , obtenida por la
frmula (I.151), depende del nmero N.

4. Esperanza matemtica de la frecuencia relativa de aparicin de un
suceso.

La obtencin de la esperanza matemtica para la frecuencia relativa reviste
indudable inters, si se tiene en cuenta la relacin (I.126), la cual, en este caso,
tomo la forma

|
|
.
|

\
|
|
.
|

\
|
n
k
n
k
M (I.152)
Donde n es el nmero de ensayos en series de ensayos repetidas varias
veces.
67
Est ultima igualdad debe entenderse as; la esperanza matemtica de la
frecuencia relativa se acerca mucho a la media aritmtica del conjunto de
valores de la frecuencia relativa obtenidos en las respectivas series de
ensayos, en cada una de las cuales el nmero de ensayos n es finito y es el
mismo.

Para resolver la tarea planteada, emplearemos la ley binomial.
De acuerdo a la definicin de esperanza matemtica

( ) ( ) ( ) ( )
( ) n n n n n n
P
n
n
k P
n
k
P
n
P
n
P
n n
k
M + + + + + + = |
.
|

\
|
....... ....... 2
2
1
1
0
0
(I.153)

Sustituyendo en la expresin (I.153) los valores de ( )
k n k k
n n
q p C K P

= la
probabilidad de la frecuencia relativa es igual a la probabilidad del respectivo
nmero de apariciones del suceso), obtendremos

( ) ( )
n k n k n n
P q p
k n k
n
n
k
q p
n
n
n
npq
n n
k
M + +

+ +

+ = |
.
|

\
|

.......
! !
!
.......
! 2 ! 2
! 2 1
2 2 1
(I.154)


( )
( )
( ) ( ) ( ) { }
( ) ( ) ( )
)
`

+ +


+ + + = |
.
|

\
|
1 1 1 1 1 1 1
......
! 1 1 ! 1
! 1
....... 1
n k n k n n
p q p
k n k
n
pq n q p
n
k
M

(I.155)
Es fcil ver que entre los corchetes del segundo miembro de (I.155) se
encuentra la descomposicin del binomio ( )
1
+
n
q p ; es por eso que la suma de
los trminos entre los corchetes es igual a la unidad y, por consiguiente

p
n
k
M = |
.
|

\
|
(I.156)

As, pues, la esperanza matemtica de la frecuencia relativa es igual a la
probabilidad del suceso.
Aplicando la sexta propiedad de la esperanza matemtica, obtendremos

( ) K M
n n
k
M p
1
= |
.
|

\
|
=
De aqu

( )
0
k np K M = (I.157)
Donde k
0
es el nmero ms probable de apariciones del suceso (Vese tema
N 8).
De esta manera, hemos establecido que la media del nmero de apariciones
de un suceso, obtenida de un conjunto de series de ensayos, tiene la mayor
probabilidad. De (I.156) se deduce que la esperanza matemtica de la
68
desviacin de la frecuencia relativa respecto a la probabilidad es igual a
cero. En efecto, aplicando las propiedades de la esperanza matemtica, puede
escribirse

( ) 0 = |
.
|

\
|
= |
.
|

\
|
= p
n
k
M p
n
k
M M (I.158)
14. Ley normal de distribucin de las variables aleatorias

Casi todas las variables aleatorias con las que se opera en geodesia obedecen
a la ley normal de distribucin de las probabilidades. Para la frecuencia relativa
de apariciones de un suceso, hemos obtenido esta ley en la forma

dt e P
t
t
t
n
k
n
k


=
2
1
2
2
1
2
2
1


Donde

pq
n
h p
n
k
h t
i
i i i
= = = , ;

Tambin se ha establecido que , |
.
|

\
|
=
n
k
M p por eso, a fin de guardar la
generalidad, utilicemos la misma forma de expresin de la ley normal que se
usa para la frecuencia relativa, y escribamos para cualquier variable aleatoria
distribuida normalmente la siguiente expresin:

dt e P
t
t
t
x
x


=
2
1
2
2
1
2
2
1

(I.159)
Donde
( )
)
`

=
=
X M x
h t
i i
i
t
i

;
(I.160)
Sealemos que ( ) ( ) ( ) 0 = = X M X M M , por consiguiente,

( ) 0 ' = = M h t M


Es decir,

( ) 0 = t M
(I.161)

Sin embargo, si se conoce el parmetro h par ala frecuencia relativa, en el caso
de cualquier otra variable aleatoria distribuida normalmente parmetro h queda
hasta el momento desconocido.
69
De esta manera la tarea se reduce a la bsqueda de una frmula para el
clculo del parmetro h que permita determinar ' h t
i
= para cualquier variable
aleatoria distribuida normalmente.
Con el fin de resolver la tarea planteada, obtengamos la frmula de la varianza
de la variable t, cuya introduccin permite dar una forma estndar a la ley
normal para cualesquiera variables aleatorias distribuidas normalmente. Segn
la definicin de varianza, y en vista de (I.161).
( ) ( ) ( ) dt e t t M t t D
t

= = =
2
2 2 2
2
2
1

(I.162)
Cambiemos la variable de integracin

dz
dt
z t
z t

=
=
=
2
2
2
2 2
(I.163)
Los lmites de integracin no varan y obtendremos

( ) dz e z dz e z t
z
z
2
2
2
2
2
2 2
2
1
2
2
2

+

+


= =

(I.164)
Hallemos la integral (I.164). Como , 2
2 2
dz ze de
z z
=


+



=
2 2
2
2
z z
zde dz e z (I.165)
Integrando por partes obtenemos
dz e ze zde
z z z

+

+

+


+ =
2 2 2
*
(I.166)
El segundo sumando del segundo miembro de (I.166) es la integral de Poisson,
que es igual a , por lo tanto

+ + =

+

2 2
2
lim lim
z z z z
z
e
z
e
z
zde
(I.167)
Segn la regla e LHospital,

0
2
1
lim lim
2 2
= +
z z z z
ze e
z


Lo mismo obtendremos para z .
Ahora resulta

+

=
2
z
zde
(I.168)

70
y, por fin, tomando en consideracin (I.164), (I.165), y (I.168), se obtiene

( ) 1
2
= t (I.169)

De acuerdo con la sexta propiedad de la esperanza matemtica,
( ) ( ) ( ) { } ( ) ( )
2 2 2 2 2 2
' ' M h h M t M t = = = (I.170)
Si tomamos en cuenta la expresin (I.160) , entonces M( )
2
, es la varianza de
la variable aleatoria X, es decir, ( ) t
2
.Por eso teniendo presente (I.169) y
(I.170), obtenemos

( )
( )
( )

=
=
x
h
X
h

1
'
1
'
2
2
(I.171)
Ahora, para cualquier variable aleatoria distribuida normalmente puede
escribirse

dt e P
t
t
t
x
x


=
2
1
2
2
1
2
2
1

(I.172)
Donde

( )
( )

=
=
X M x
X
t



;
(I.173)
Las magnitudes adimensionales
( )
i
i
t
X
=

se llaman valores normalizados de la


variable aleatoria . De (I.171) y (I.172)para la varianza y la desviacin tpica
de la frecuencia relativa tendremos:

( )
( )

=
= =
n
pq
Q
n
pq
h
Q

2
2
1
(I.174)
Las frmulas (I.172) y (I.173)tiene un valor prctico excepcionalmente, ya que
permiten utilizar las tablas de probabilidades para resolver problemas con
cualesquiera variables aleatorias distribuidas normalmente. Para esto es
necesario conocer las dos caractersticas principales de estas variables, es
decir, ( ) ( ) X y X M Recordemos que en la prctica en lugar de diseca
caractersticas se emplean valores aproximados, es decir,

71
( )

=
=
n
i
i
x
n
x X M
1
1

y
( ) ( )

=
n
i
i
x x
n
X
1
2
1
1
,
donde n es un nmero finito.
La fiabilidad de las caractersticas obtenidas depende del nmero n; cuando
mayor sea ste, ms fiable sern aquellas (vase el cap. II).
Hagamos mencin de una propiedad de las variables aleatorias que se
someten a cualquier ley simtrica de distribucin, y por lo tanto a la ley normal:
la esperanza matemtica de cualquier potencia impar de la discrepancia
( ) X M X = es igual a cero. Esta propiedad se deriva de la asimetra de la
curva de distribucin respecto al eje Y. Si se considera la esperanza
matemtica de una variable aleatoria como un valor medio lmite, a cada valor
positivo
1 2 +
+
n
i
le debe corresponder otro igual, pero negativo
1 2 +

n
i
, puesto
que el nmero de sus apariciones, en el lmite, debe ser igual, por lo cual
ocurrir una competa compensacin de estos valores. En particular,
( ) 0 = M (I.175)
El incumplimiento de la propiedad indicada de las potencias impares de es
uno de los indicios fundamentales de la desviacin de la distribucin dada
respecto a la ley normal.

Mostremos algunos ejemplos de aplicacin de las frmulas obtenidas (I.173) y
de las tablas de valores ( ) ( ) t y t F (Vanse los apndices 2 y 3)

Ejemplo 1. Los datos son ( ) ( ) 1 . 2 ; 3 . 145 = = X X M . Calcular la probabilidad de
que el valor de una variable aleatoria, en un solo ensayo, quede comprendido
en el intervalo entre 143.2 147.4.
Solucin Calculemos
2 1 2 1
, , , t t
1 . 2 3 . 145 2 . 143
1
= = ; 1 . 2 3 . 145 4 . 147
2
+ = = 1
1 . 2
1 . 2
1
=

= t
1
1 . 2
1 . 2
2
+ =
+
= t
Puesto que 1
2 1
= = t t , por la tabla de valores de la funcin ( ) t , ( ) 683 . 0 1 =

Ejemplo 2. El por ciento medio de la produccin defectuosa en una fbrica,
calculado segn datos de muchos das, result ser igual a 1.80%. La
desviacin tpica de esta magnitud es % 20 . 0 = .
Calcular la probabilidad de que algunos das el porcentaje de produccin
defectuosa se encuentre entre 1.5% y 2.0%.
Solucin Segn las condiciones del ejemplo 20 . 0 ; 80 . 1 = =
med
x , de donde
1. 30 . 0 80 . 1 50 . 1
1
= = ; ; 20 . 0 80 . 1 00 . 2
2
+ = = 50 . 1
20 . 0
30 . 0
1
= = t

72
00 . 1
20 . 0
20 . 0
2
+ = + = t

Aqu empleemos la tabla del apndice 3 para la funcin

( ) dt e t F
t t


=
0
2
2
2
1


2. ( ) ( ) 067 . 0 50 . 1 ; 841 . 0 1 = = + F F
Respuesta: 0.841 0.064 =0.774
La respuesta obtenida significa que aproximadamente durante 77 das de
trabajo cada 100, el porcentaje de produccin defectuosa de la fbrica se
encuentra entre los lmites de 1.5% a 2%

Ejemplo 3. Valindose de los datos del problema anterior, hallar aquel lmite
que no supere la produccin defectuosa en la fbrica con una probabilidad P =
0.4.
Los datos son:
; 80 . 1 =
med
x 20 . 0 = 40 . 0 = P ; 0
1
= x ; 80 . 1
1
=
Hallar
?
2
= x
Solucin 9
20 . 0
80 . 1
1
= = t Prcticamente se puede considerar que =
1
t .Por
eso utilicemos las tablas de integrales ( ) t F , y, elevando a la potencia,
encontremos el valor de
2
t que corresponde a ( ) 40 . 0
2
= t F
05 . 0 254 . 0 20 . 0 ; 254 . 0
2 2 2
= = = = t t
Respuesta:
% 75 . 1
2
= x , es decir, ( ) 05 . 0 , 80 . 1
Esto quiere decir que aproximadamente en cuatro de cada diez das la
produccin defectuosa de la fbrica no excede del 1.75%

Ejemplo 4. Para establecer la relacin porcentual de las medidas del calzado
en la produccin de botas para soldados se tomaron las medidas del pie a los
soldados de un regimiento, de lo cual se obtuvo un longitud media del pie
=
med
x 25.5 cm, siendo una desviacin tpica cm 2 = . Al valor ,
med
x le
corresponde el nmero de zapato N 41. Al pasar a otro nmero prximo, la
longitud del pie cambia en 1 cm.
Encontrar la distribucin normal porcentual ms correcta, por nmeros del
calzado que ha de fabricarse. Aqu resulta cmodo utilizar las tablas ( ) t .

Solucin Los pasos de la variacin de x son lo siguientes:

De 20 cm. hasta 21 cm. zapatos del N 36
21 22 N 37
22 23 N 38
73
23 24 N 39
24 25 N 40
25 26 N 41
26 27 N 42
De 27 cm.hasta 28 cm. zapatos del N 43
28 29 N 44
29 30 N 45
30 31 N 46

Hallemos ahora el paso de variacin de

0
= t
N 36 y N 46 de 2.25 hasta 2.75
N 37 N 45 1.75 2.25
N 38 N 44 1.25 1.75
N 39 N 43 0.75 1.25
N 40 N 42 0.25 0.75
N 41 0.00 0.25
Hallemos ahora, con ayuda de la tabla de ( ) t del apndice 2, qu nmeros de
calzado es necesario producir:

N 36 y N 46 0.9% de cada uno
N 37 N 45 2.8%
N 38 N 44 7.1%
N 39 N 43 11.6%
N 40 N 42 17.4%
N 41 19.8%
Adems, ser necesario producir un 0.6% por pedidos especiales del
regimiento.

15. Sobre algunas distribuciones que difieren de la normal

1. Distribucin uniforme

En la elaboracin de los resultados de observaciones, frecuentemente hay que
vrselas con variables aleatorias cuya densidad de probabilidad tienen un valor
constante en cierto intervalo finito.
La distribucin en este caso se llama uniforme


74


Fig. 6

La densidad de la distribucin uniforme de una variable aleatoria X se expresa
por medio de la siguiente funcin (vese la fig 6.)

( )
)
`

+ =

a x cuandoa x f
r
2
1
(I.176)

Donde a son los lmites de variacin de x y a, la abscisa del centro del
intervalo.

Tal distribucin la poseen, por ejemplo, los errores de redondeo.

La grfica de una funcin ( ) x f
r
se muestra en la figura 6. Ya que la grfica de
la funcin ( ) x f
r
se represente en forma de rectngulo, la distribucin
frecuentemente se denomina rectangular
La funcin de distribucin ( ) x f
r
tiene la forma

+ >
+ <
+

=


a cuandox
a x cuandoa
a x
a cuandox
F
r
1
2
; 0
(I.177)
Cerciormonos en el hecho de que si los valores posibles de la variable
aleatoria X uniformemente distribuida pertenece al intervalo ( ) + a a , ,
entonces la probabilidad de que X tome el valor dentro de este intervalo es
igual a la unidad:

( )
( ) ( )
1
2
2
2 2
= =
+
= = +

+

a
a
a a dx
a X a P
Hallemos las caractersticas numricas de la distribucin uniforme, es decir, su
esperanza matemtica y su desviacin tpica.
Segn la definicin de esperanza matemtica

75
( ) ( ) ( ) | |
2 2
2
4
1
4 2
1
2


+ = = = =
+


a a
x
xdx
dx
x X M
a
a
a
a
a
a



o bien
( ) a X M = (I.178)
Calculemos la varianza y despus la desviacin tpica del a distribucin
uniforme
( ) ( ) ( ) | |
2 2
X M X M X D = (I.179)

Resulta que

( ) ( ) ( ) | |
3 3 3 2
6
1
3
1
2
1
2


+ = = =
+

a a x
dx
x X M
a
a
a
a


Haciendo algunas operaciones sencillas, obtenemos

( )
2
3
2
3
a X M + =

(I.180)

Tomando en consideracin las expresiones (I.178), (I.179) y (I.180), obtenemos
finalmente

( )
( )

=
=
3
3
2

X
X D
(I.181)

Recordemos que es la magnitud mxima en que puede discrepar el valor de
la variable aleatoria respecto a su esperanza matemtica, es decir, es el
valor absoluto de la desviacin lmite.

2. Ley de distribucin de Poisson

Al deducir la ley normal de distribucin de las desviaciones de la frecuencia
respecto a la probabilidad, habamos supuesto que p, la probabilidad del
suceso en estudio, no diverge mucho de 0.5. Para valores de p prximos a cero
o a la unidad, la ley normal resulta poco fundamentada. En estos casos es
mejor aplicar la ley de distribucin de Poisson para sucesos que poseen una
probabilidad p pequea. Si el suceso tiene una probabilidad prxima a la
unidad, la ley de Poisson se aplica para el suceso contrario, con una
probabilidad p q =1 . Est claro que la probabilidad del nmero de apariciones
k del suceso ser igual a la probabilidad del numero (n k) de apariciones del
suceso contrario en n ensayos.
La ley de distribucin de Poisson se expresa por la siguiente frmula
76

( )
0
!
0 k
k
e
k
k
k P

= (I.182)
donde K
0
= np, es decir, es una magnitud constante para un cierto valor de n.
La magnitud k puede adquirir slo valores enteros , tericamente ilimitados,
aunque, desde luego, n k . Es evidente que la probabilidad de que el nmero
k tome un valor comprendido entre los lmites 0 y es a

=
a
k
k
k a
k
k
e P
0
0
0
,
!
0

y entre los lmites
2 1
ya a

=
=

=
2
1
0 1
2
,
!
0
a k
a k
k
k a
a
k
k
e P
Si se requiere calcular la probabilidad

( )
0
1
0
!
k
a
k
e
k
k
a k P

= >
Entonces, claro est, resulta ms ventajoso obtener primero
( )

=
a
k
k
k
k
e a k P
0
0
!
0

y despus
( ) ( ) a k P a k P = > 1
Comprobemos si la ley de Poisson satisface la condicin bsica de toda ley de
distribucin de probabilidades

=
=


= =
n k
k
k
n
k n
k
k
e P
0
0
0
1
!
lim
0
(I.183)


Pero como ya sabemos

=
=

=
n k
k
k
k
n
e
k
k
0
0
0
!
lim

y por eso
1
0 0
0
= =
k k n
e e P
Que es lo que queramos demostrar.
Hallemos ahora la esperanza matemtica y la varianza de la variable aleatoria
k (que es el nmero de apariciones de un suceso en n ensayos) la cual se
supedita a la ley de distribucin de Poisson.
Segn la definicin de esperanza matemtica,

77
( )
( )
0 0
0 1
1
0
0
1
0 0
0
0 0
0 0
! 1
! !
k e k
k
k
e k
e
k
k
k e
k
k
k k M
k
k
k
k
k
k
k
k
k
k
= =

= = =




es decir
( ) np k k M = =
0
(I.184)

Cul es la varianza? De acuerdo con (I.147)

( ) ( ) ( ) | |
2 2
k M k M k D =

Teniendo en cuenta la expresin (I.184), se tiene

( ) ( )
2
0
2
k k M k D = (I.185)
Hallemos

( )
( )
( )
( )
( )
( ) ( )

+ =

= =
1 1
1
0
0
1
0
0
1
0
0 1
0
1
0
0
0
0 2 2
! 1 ! 1
1
! 1
1 1
! 1
!
0 0
0 0
0
k k
k
k k
k
k
k
k k
k
k
k
k
k
k
k
e k e
k
k
k k
e
k
k
k k e
k
k
k k
e
k
k
k k M


Designando k 1 = m, obtendremos
( )
0 0 0 0
0 0 0
1
0
0
0
0
2
! !
k k
m m
m
k k
m
e e k k k
m
k
e k e
m
k
m k k M


=

+ = + =


o bien
0
2
0
2
) ( k k k M + = (I.186)

Tomando en consideracin ahora (I.185) y (I.186), tendremos
( ) np k k D = =
0
(I.187)
De este modo, obtuvimos para la distribucin de Poisson

( )
( )

)

=
=
=
np k
np k D
np k M

) (
(I.188)
Teniendo en cuenta (I.188), as como (I.151) y la igualdad aproximada
( ) k k M , la hiptesis acerca de que la distribucin realmente corresponde a la
ley de Poisson puede comprobarse por el cumplimiento de la igualdad
aproximada:
78

( ) ( )
2
1
1
1
k k
n
k D
i
n


(I.189)
Ejemplo

Suponiendo que el nmero de partculas de oro que se hallan en


estado de suspensin en una solucin se distribuye de acuerdo con la ley de
Poisson, hallar la expresin de la distribucin de partculas de oro al cabo de
dos segundos en un sector del espacio pticamtente aislado (tabla 3)

Solucin Calculemos la media aritmtica y la varianza aproximada de la
variable aleatoria. De acuerdo con los datos de la tabla 3 tenemos

Tabla 3
Cantidad de
partculas
Cantidad de
intervalos
Clculos
x
i
n
i
x x
i
( )
i i
n x x ( )
i i
n x x
2

0 381 -1.42703 -543.7 775.9
1 568 -0.42703 -242.6 103.6
2 357 +0.57297 +204.6 117.2
3 175 +1.57297 +275.3 433.0
4 67 +2.57297 +172.4 443.6
5 28 +3.57297 +100.0 357.3
6 5 +4.57297 +22.9 104.7
7 2 +5.57297 +11.1 61.9
Total 1583 Control -786.3 2397.2

= 2259
i i
n x 42703 . 1 = x

=
+
0 , 0
3 . 786



43 . 1
1583
2259
= =

n
n x
x
i i


( ) ( ) 51 . 1
1583
2 . 2397
1
1 2

i i
n x x
n
X D


Una coincidencia bastante buena de x y del valor aproximado de la varianza
( ) X D , iguales respectivamente, a 1.43 y 1.51, confirma la hiptesis propuesta
acerca de la existencia de la distribucin de Poisson. La expresin de la ley de
Poisson en el caso dado adopta la forma:

( )
( )
!
43 . 1
43 . 1
k
e
k X P

= = (I.190)

Ejemplo se ha tomado del libro :1962r. (A. Karasiev. fundamentos de estadstica matemtica)
79
Donde k = 0, 1, 2, , n es la cantidad posible de partculas de oro
suspendidas en la solucin, pasados dos segundos, en un sector de espacio
ptimamente aislado,
Por la frmula (I.190) puede calcularse la probabilidad para un nmero k dado.
La tabla de distribucin de Poisson puede consultarse en el apndice 4.

16. Nocin sobre las distribuciones multidimensionales de sistemas
de variables aleatorias independientes.

El sistema de variables aleatorias puede entenderse como el conjunto de n
variables aleatorias que predeterminan la posicin aleatoria de un punto en el
espacio n-dimensional. En particular, un sistema bidimensional define la
posicin aleatoria de un punto en un plano; el tridimensional, la posicin
aleatoria de un punto en el espacio (por ejemplo, el lugar del estallido de un
proyectil en la tierra o el punto de explosin de un proyectil cenital en el aire).

Enunciemos sin demostracin el siguiente teorema
La densidad de distribucin de un sistema de variables aleatorias
independientes es igual al producto de las densidades de distribucin de las
distintas variables que componen el sistema.

Supngase que las densidades de distribucin ( es decir, las ordenadas de las
curvas de distribucin ) de las variables aleatorias independientes X, Y, Z, U
son, respectivamente ( ) ( ) ( ) ( ) u f z f y f x f
4 3 2 1
. , , . Entonces, la densidad de la
distribucin del sistema ser:
( ) ( ) ( ) ( ) ( ) u f z f y f x f u z y x f
4 3 2 1
. , , , , , = (I.191)
La probabilidad de que un valor se encuentre entorno del punto ( ) u z y x K , , ,
ser:
( ) ( ) ( ) ( )dxdydzdu u f z f y f x f p
K 4 3 2 1
. , , = (I.192)
La probabilidad de que un valor pertenezca a la regin Q se calcula por la
frmula:
( ) ( ) ( ) ( )dxdydzdu u f z f y f x f p
Q
K 4 3 2 1
. , ,

= (I.193)
En una distribucin normal bidimensional la probabilidad de que un punto se
encuentre dentro de un rectngulo de lados paralelos a los ejes de
coordenadas ser
( )
( )
( )
( )
dtXdtY e P
Y
Y t X t
X
X
v x
v x
Y

|
|
.
|

\
|
+
=


2
1
1
2 2
2
1
2 2
1 1
2 2
,
,
1


Donde
( ) X
t
X


=
( ) Y
t
Y

= X x
i i
= Y y
i i
= (I.194)

80
En una distribucin normal tridimensional, la probabilidad de que un punto tome
valores pertenecientes a la regin limitada por un paraleleppedo cuyas caras
son paralelas a los planos de coordenadas es igual a
( )
( )
( )
( )
( )
( )
Z Y X
Y
Z t Y t X t
Z
Z
X
X
z v x
z v x
dt dt dt e P
Y

|
|
.
|

\
|
+ +
=




2
1
1
2 2 2
2
1
2
1
2 2 2
1 1 1
2 2 2
2
3
, ,
, ,
1

Donde

( ) X
t
X


=
( ) Y
t
Y

=
( ) Z
t
Z

=
X x
i i
= Y y
i i
= Z z
i i
=

Para calcular la probabilidad de que un punto tome valores dentro de una
regin dada de forma arbitraria, ya sea en el plano o en el espacio, es
necesario conocer las fronteras de dichas regiones dadas en forma de sus
correspondientes ecuaciones, En tal caso hay que calcular integrales mltiples
con fronteras variables de los lmites de integracin.
En una ley de distribucin uniforme de las probabilidades para todos los
argumentos la probabilidad de que un punto se halle comprendido en una
regin es proporcional al rea de tal regin, en el caso de la distribucin
bidimensional, y en el caso de distribucin tridimensional, proporcional al
volumen de dicha regin.
El caso de magnitudes aleatorias dependientes y de la combinacin de
diversas distribuciones no ser tema a tratar para nosotros.

17. Leyes de lmite

1. Ley de los grandes nmeros
La teora de las probabilidades se funda en la interpretacin matemtica de las
propiedades reales de fenmenos aleatorios masivos o, como suele decirse, en
sus regularidades estadsticas. Una de las expresiones matemticas ms
importantes de estas regularidades es la ley de los grandes nmeros. De
acuerdo con esta ley, el valor medio de una variable aleatoria, al aumentar el
nmero de observaciones, converge en probabilidad hacia la esperanza
matemtica.
En tal formulacin, la ley de los grandes nmeros se conoce como teorema de
Chbyshev. Dicho teorema expresado en frmula presenta el aspecto
siguiente:
( ) > <

1 X x P
n
(I.196)
donde y son nmeros positivos arbitrariamente pequeos.
En particular, teniendo en cuenta que p
n
k
M = |
.
|

\
|
, obtenemos el teorema de
Bernoulli.
81
>

<
|
|
.
|

\
|

1 p
n
k
P
N
(I.197)
donde N es el nmero de series de ensayos, en cada una de las cuales se
realiza un nmero n de ensayos.

El teorema de Chbyshev se demuestra a base de la siguiente desigualdad de
Chbyshev:
( )
( )
2

X D
X x P < > (I.198)
Donde es un nmero positivo finito cualquiera.
Demostremos la validez de la desigualdad (I.198)
( ) ( ) ( )dx x f dx x f X x P
X
X


+


+ =

(I.199)
Donde ( ) x f es la densidad de la distribucin de probabilidades de la variable
aleatoria.
En seguida tenemos que
( ) ( ) ( ) ( )dx x f X x dx x f X x dx x f X x X D
X
X


+


+ > =

2 2
2
(I.200)
si la magnitud variable X x se sustituye por su limite inferior , la
desigualdad (I..200) se refuerza. Por eso,
( ) ( ) ( ) ( ) ( )

+ = + + + >

+
+


X
X
X
X
dx x f dx x f dx x f dx x f X D
2 2 2
,
o, tomando en cuenta (I.199)
( ) ( ) > > X x P X D
2

De donde se obtiene el igualdad (I.198).
Sustituyendo en todas las expresiones el signo de integral por el de la suma, y
( )dx x f por los valores correspondientes de las probabilidades, con facilidad se
demuestra, para magnitudes discretas, la validez de la desigualdad de
Chbyshev. Ntese que sta indica slo el lmite superior de la probabilidad de
desviacin X x en cierta magnitud positiva positiva para cualquier
distribucin. Si la ley de distribucin se conoce, la probabilidad de la desviacin
X x puede estimarse ms exactamente.
Analicemos el siguiente problema.
Se conoce una magnitud aleatoria X y sus caractersticas principales M (X) y D
(X). Se han efectuado n observaciones y obtenido un nmero n de valores
( ) n i x
i
,..... 1 = Del nmero n de valores x
i
la media aritmtica es x .
A su vez, el valor obtenido de x puede considerarse como el de cierta variable
aleatoria Y, con la particularidad de que el conjunto de valores de esta variable
comprende todos los valores medios aritmticos posibles en diferentes series
de observaciones en cada una de las cuales se ha efectuado un nmero n de
82
observaciones. Se requiere hallar las caractersticas fundamentales de la
variable aleatoria Y, es decir,

( ) ( ) Y yD Y M
Vamos a reflexionar de la siguiente manera. Los valores observados de X
pueden ser considerados como resultados de las observaciones de n variables
aleatorias recprocamente independientes
n
X X X X ,...... , ,
3 2 1
, todas las cuales
poseen caractersticas iguales X y D (X).
En tal caso

( )
n
X X X X
n
Y ,...... , ,
1
3 2 1
= (I.201)

es decir, el valor de Y puede considerarse como la media aritmtica de
variables aleatorias recprocamente independientes e igualmente distribuidas.
Basndonos en la expresin (I.201) obtenemos

( )
n
X X X X
n
Y ,...... , ,
1
3 2
1 =
Pero segn lo convenido ( ) X X X X X
n
= = = = ,......
3 2
1 , por eso
X n
n
Y
1
= ,
Es decir
X Y = (I.202)
Hallemos la varianza ( ) ( ) x D Y D , valindonos del hecho de que un factor
constante puede sacarse tras el signo de varianza, elevndolo al cuadrado, es
decir,
( ) ( ) |
.
|

\
|
=

= =

=
=
n
i
i
n
i
i
x D
n n
x
D x D Y D
1
2
1
1

(I.203)
Tomando en consideracin que las variables tratadas estn igualmente
distribuidas, o sea, ( ) ( ) ( ) ( ) x D x D x D x D
n
= = = .........
2 1
y tambin de la propiedad
distributiva de la varianza, ( ) ( ) ( ) ( )
n n
x D x D x D x x x D + + + = ......... ,...... ,
2 1 2 1
se
obtiene:
Considerarse como el de cierta variable aleatoria Y, con la particularidad de
que el conjunto de valores de esta variable comprende todos los valores
medios aritmticos posibles en diferentes series de observaciones en cada una
de las cuales se efectuado un numero n de observaciones. Se requiere hallar
las caractersticas fundamentales de la variable aleatoria Y, es decir,
) ( _ _ ) ( y D y Y M
83
Vamos a reflexionar de la siguiente manera. Los valores observados de X
pueden ser considerados como resultados de las observaciones de n variables
aleatorias independientes X1, X2, X3,..., Xn, todas las cuales poseen
caractersticas iguales ) ( _ _ X D y X
En tal caso
). ... 2 1 (
1
Xn X X
n
Y + + + = (I.201)
Es decir, el valor de Y puede considerarse como la media aritmtica de
variables aleatorias recprocamente independientes e igualmente distribuidas.
Basandosnos en la expresin (I.201), obtenemos
). ... 2 1 (
1
Xn X X
n
Y + + + =
Pero, segn lo convenido, X Xn X X = = = = ... 2 1 , por eso
X n
n
Y
1
=

Es decir
X Y = (I.202)
Hallemos la varianza D(Y)- D( x ) , valindonos del hecho de que un factor
constante puede sacarse tras el signo de varianza, elevndolo al cuadrado, es
decir,
) (
1
) ( ) (
1
2
1

=
=
=

= =
n
i
n
i
xi D
n n
xi
D x D Y D (I.203)

Tomando en consideracin que las variables tratadas estn igualmente
distribuidas, o sea, D(x1)=D(x2)=...=D(xn)=D(x), y tambin la propiedad
distributiva de la varianza, D(x1+x2+...+xn)= D(x1)+D(x2)+...+D(xn), se obtiene
n
x D
n
x nD
xi D
n
Y D
n
i
) ( ) (
) (
1
) (
2
1
2
= = =

=

As pues,
n
x D
x D Y D
) (
) ( ) ( = = (I.204)
Ahora si se cuenta con todos los requisitos para la demostracin del teorema
de Chebyshev, suponiendo que las variables consideradas son independientes
dos a dos y poseen varianzas uniformemente limitadas (es decir, limitadas por
un mismo nmero)
> <

1 ) ( X x
n
P

Donde y son nmeros positivos arbitrariamente pequeos.
Apliquemos la desigualdad de Chebyshev a la variable aleatoria , tomando
=
84
2 2
) ( ) (
) (

n
x D x D
X x
n
P
= < >



Examinando la desigualdad (I.206), nos cercioraremos de que, por ms
pequeo que fuese el numero dado , siempre se puede hallar un nmero n tan
grande que se cumpla la desigualdad

<
2
) (
n
x D

Por eso, puede escribirse < >

) ( X x
n
P
y pasando al suceso
contrario, > <

1 ) ( X x
n
P


Que es lo que se quera demostrar.

____________________

*
)
`

=
)
`

=

= = = = =
2
1 1
2
1 1 1
) ( ) ( ) (
n
i
n
i
n
i
n
i
n
i
i X xi M xi M xi M xi D
Teniendo en cuenta que const X Xi = = y haciendo uso de las propiedades de
la esperanza matemtica, escribamos
| |
) (
) ( ) (
) ( ) ( ) ( ) (
) )( ( ) ( ) (
) ( ) ( ) (
1 1
1 1 1
2
1
1 1
2
1 1
2
1
2
1 1
j i
xi D xi D
X xj M X xi M X xi M xi D
X xj X xi X xi M xi D
X xi M X x xi M xi D
n
i
n
i
n
i
n
j
n
i
n
i
n
i
n
j
n
i
n
i
n
i
n
i
n
i
=
=
+ =
)
`

+ =
)
`

=
)
`

=




= =
= = = =
= = = =
= = =

Y, como 0 ) ( = X xi M ,obtenemos finalmente
) ( ) (
1
X D x D
n
i
=

=


As, pues, la esperanza matemtica pude sustituirse aproximadamente por el
valor medio de entre n observaciones, y con tanto mayor fundamento, cuanto
mayor se el numero de observaciones.

2. nocin sobre el teorema central del lmite de Liapunov

Es evidente la importancia de la ley de los grandes nmeros para aplicaciones
prcticas de la teora de las probabilidades. No menos importantes en la
85
prctica son teoremas reunidos bajo el nombre comn de <<teorema del
lmite>>. Mientras que la ley de los grandes nmeros establece las
propiedades estadsticas del valor medio de una variable aleatoria, el teorema
del lmite central establece las condiciones bajo las cuales surge la ley normal
de distribucin.
El mayor aporte a la elaboracin de este teorema pertenece a los matemticos
rusos P. Chebyshev, A. Markov y A. Liapunov. Como la demostracin rigurosa
del teorema fue dada por A. Liapunov, dicho teorema central del lmite se
conoce con el nombre de este cientfico. La demostracin rigurosa de este
teorema requiere ampliar considerablemente este curso. Es por ello que nos
limitaremos tan solo a la exposicin de la idea fundamental del teorema y
daremos una demostracin simplificada que ilustra, en cierta medida, la idea
fundamental de la demostracin rigurosa.
La esencia del teorema central del lmite estriba en lo siguiente . Si cierto
fenmeno aleatorio es el resultado de la accin de un nmero suficientemente
grande de fenmenos aleatorios independientes (o dbilmente dependientes),
cada uno de los cuales acusa escasa influencia en el resultado final, entonces
la ley de distribucin de las probabilidades de dicho fenmeno complejo se
aproxima a la ley normal.
Aplicndolo a variables aleatoria, el teorema de Liapunov puede formularse de
la siguiente manera:
Si cierta variable aleatoria es la suma de un nmero suficientemente grande de
otras variables aleatorias independientes que divergen respecto de sus
esperanzas matemticas en magnitudes muy pequeas en comparacin con
las desviaciones de la magnitud sumaria entonces la ley de distribucin de
esta variable aleatoria sumaria se aproxima a ley normal.
Demos una demostracin simplificada del teorema de Liapunov para variables
aleatorias.
Supongamos que la variable aleatoria Y es la suma de un nmero n de variable
aleatorias independientes Xi (i=1, ...,n), es decir,
Xn X Y + + = ... 1
Transformemos la expresin (I.207) a la forma
) ( ... ) 1 1 ( n Xn X Y + + + + = +
Puesto que
Xn X Y + + = ... 1
Entonces
n + + = ... 1
O sea, la desviacin aleatoria de la suma es la suma de las desviaciones de
los sumandos.
Supongamos ahora que cada uno de los sumandos i esta compuesto, a su
vez, de varios sumandos elementales , de magnitudes absolutas iguales, pero
que adquieren signos ms y menos con igual probabilidad. En virtud de la
variedad de los enlaces mutuos en la naturaleza tal supuesto es inadmisible, ya
que cada uno de los sumandos, a su vez, es el resultado de muchas influencias
y este razonamiento puede aplicarse a muchos fenmenos.
86
Como consecuencia de dicha simplificacin , la magnitud de puede ser
representada como la suma de un gran nmero N de sumandos elementales
con igual probabilidad p=0,5 que adquieren el signo mas o menos es decir

=
=
N
i
i
1

Donde = constante , y los sumandos difieren solo en el signo.
Los valores concretos de la magnitud aleatoria dependern del nmero de
sumandos positivos en el ensayo dado, supongamos que resulten k
sumandos positivos. El valor concreto de i ser
) ( k N k i =
(Es obvio, que los sumandos negativos sena N-k). Luego obtenemos
) (
)
2
1
( 2 2
mm S Si
n
k
N N k k N k i
med
=
= = + =

Es decir,
) 5 . 0 ( 2 =
n
k
N i
Donde N 2 es una magnitud constante, y entre parntesis del segundo
miembro de la igualdad (I.211 hemos obtenido la desviacin de la frecuencia
relativa del suceso respecto a la probabilidad. Pero ya que la desviacin de la
frecuencia respecto a la probabilidad se acomoda a la ley normal de
distribucin, entonces el teorema de Liapunov queda demostrado (desde luego,
con la simplificaciones que nos hemos permitido hacer al inicio de nuestro
razonamiento).
El teorema de Liapunov posee una importancia relevante para la teora de
errores de medicin.

You might also like