You are on page 1of 32

HISTORIA DE LA

PROBABILIDAD
ÍNDICE GENERAL:

1.CONTEXTO HISTÓRICO Y PRECURSORES……………………. 3

Pacioli, Cardano y Tartaglia……………………………………………………….. 3

2.NACIMIENTO Y EVOLUCIÓN DE LA TEORÍA DE LA


PROBABILIDAD……………………………………………………....5

El problema del caballero de Meré. Nacimiento de la probabilidad……………..5

Primeras definiciones y teoremas básicos…………………………………………7

La ley de los Grandes Números……………………………………………………10

El Teorema Central del Límite………………………………………………….....11

Problemas importantes de la historia……………………………………………..12

3.LA TEORÍA MODERNA DE LA PROBABILIDAD………………15

La probabilidad en el siglo XIX……………………………………………………15

Perfeccionamiento de la ley de los Grandes Números y el TCL………………...16

Escuelas del siglo XX………………………………………………………………17

Kolmogorov y la axiomatización de la probabilidad………………………….....18

TRATAMIENTO Y COMENTARIO DE TEXTO ORIGINAL…….20

BIBLIOGRAFÍA…………………………………………………….....28

2
1.CONTEXTO HISTÓRICO Y PRECURSORES

La Edad media termina históricamente en el año1453 con la caída de


Constantinopla por parte de los otomanes, dando paso a la etapa conocida como
Renacimiento, la cual se destacó por la actividad mercantil, industrial, artística,
arquitectónica, intelectual y científica, entre otras. En esta época surge una nueva
relación del hombre con la naturaleza, que va unida a una concepción ideal y realista de la
ciencia. La matemática se va a convertir en la principal ayuda de un arte y una sociedad que
se preocupan incesantemente en fundamentar racionalmente su ideal de belleza.
A partir de esta etapa con el avance en las matemáticas y la filosofía, se empieza a
dar una explicación coherente a muchos fenómenos que no seguían un patrón
determinístico, sino aleatorio. Es el caso de todos los fenómenos relativos a la
probabilidad de los sucesos, concretados en este tiempo fundamentalmente en los
juegos de azar.
En este periodo del Renacimiento es cuando empiezan a surgir de manera más seria
inquietudes entorno a contabilizar el número de posibles resultados de un dado lanzado
varias veces, o problemas más prácticos sobre cómo repartir las ganancias de los
jugadores cuando el juego se interrumpe antes de finalizar. Como vemos estas
inquietudes surgían más como intentos de resolver problemas “cotidianos” con el fin de
ser justos en las apuestas y repartos o incluso de conocer las respuestas para obtener
ventajas y en consecuencia mayores ganancias respecto a otros jugadores y mucho
menos de inquietudes matemáticas verdaderas. De hecho la idea de modelizar el azar
mediante las matemáticas aún no estaba plenamente presente en los intelectuales de la
época.

Pacioli, Cardano y Tartaglia:

Uno de los primeros problemas dedicados a contabilizar el número de posibles


resultados al lanzar un dado varias veces podemos encontrarlo aún en la Edad Media, en
el poema De Vetula de Richard de Fournival (1200-1250) donde afirma correctamente
que si se lanzan tres dados hay 216 combinaciones posibles y calcula acertadamente
los diferentes valores para la suma de los tres dados. Aunque ahora puede parecer una
cuestión trivial, en aquella época no lo era, y otros autores se equivocaron al intentar
resolverla, generalmente porque no tenían en cuenta las posibles permutaciones de una
misma combinación.
Pero el problema más importante relativo a los juegos de azar era el conocido como
“problema del reparto de apuestas” que distribuía las ganancias entre jugadores cuando
la partida se interrumpía antes de finalizar. Este problema fue abordado por Luca
Pacioli (1445-1517) quien en 1487 propuso estos dos problemas particulares: un juego
en el que el premio es de 22 ducados que consiste en alcanzar 60 puntos se interrumpe
cuando un equipo lleva 50 puntos y el otro 30; y tres arqueros que compiten por un
premio de 6 ducados lanzan flechas hasta que uno de ellos haga 6 dianas, siendo
interrumpidos cuando el primero de ellos lleva 4 dianas, el segundo 3 y el tercero 2.
¿Cómo deben repartirse los premios entre los contendientes? Pacioli propuso que el
premio debería ser repartido en función de las victorias obtenidas anteriormente: así, el
premio del primer problema se dividía en 60×5/8 ducados para el primer equipo y en

3
60×3/8 para el segundo; para el problema de los arqueros, el premio se dividía en la
proporción 4/9, 3/9 y 2/9. Como más tarde se pondría de manifiesto, esta solución
obtenida por Pacioli es incorrecta.
Fue Girolamo Cardano (1501-1576) quien escribió la primera obra importante
relacionada con el cálculo de probabilidades en los juegos de azar. Fue en 1565 y se
llamaba Libro de los juegos de azar. Además Cardano se había ocupado anteriormente
del problema del reparto de apuestas y en 1539 llegó a la conclusión de que la solución
de Pacioli era incorrecta porque al considerar tan sólo el número de juegos ganados por
cada equipo, no contaba cuántos juegos debían ganar para hacerse con el premio.
Cardano propuso como solución del problema que si n es el número de juegos totales y
a y b los juegos ganados por cada equipo, el premio debía repartirse de la siguiente
manera:
[1+2+…+(n-b)]: [1+2+…(n-a)].
Esta solución es, en general, incorrecta y sólo da resultados válidos en casos
particulares.
Niccolo Tartaglia (1499–1557), también intentó resolver este problema y en 1556
publicó un libro en el que descartaba la solución dada por Pacioli y daba su propio
solución: si un equipo ha ganado a puntos y el otro b, se juega a n puntos y el premio
total es P, las ganancias deberían repartirse de la forma:

(P/2)±P[(a-b)/n] siendo la cantidad mayor para el


equipo que tenga más victorias. Sin embargo, Tartaglia fue consciente de que su
solución no era la correcta y en su libro dejaba claro que era buena para impartir justicia
y equilibrio a un reparto, pero no era exacta desde el punto de vista matemático.

Además de estos tres nombres importantes, entre los precursores de la probabilidad


destacó también un hombre mucho más conocido en otros campos de las matemáticas y
la física como fue Galileo Galilei, que durante su vida también resolvió problemas
sobre dados, hasta tal punto que escribió un libro llamado Sobre la puntuación en
tiradas de dados. Sin embargo, la mayor aportación de Galileo a los inicios de la
probabilidad fue la invención de su teoría de la medida de errores. Clasificó los errores
en dos tipos: “sistemáticos” y “aleatorios”, clasificación que se mantiene aún en la
actualidad y estableció cuidadosamente las propiedades de los errores aleatorios. Con
esto contribuyó sin saberlo a la creación de ramas fundamentales de la estadística y la
probabilidad posterior.

4
2.NACIMIENTO Y EVOLUCIÓN DE LA TEORIA
DE LA PROBABILIDAD

El problema del Caballero de Meré: Nacimiento de la probabilidad

Cierto día del año 1654, Blaise Pascal (1623 - 1662) matemático francés, hacía un
viaje en compañía de un jugador más o menos profesional conocido como el caballero
de Meré, quien era una persona apasionada por todo lo relacionado con el juego de los
dados y las cartas, siendo además un hombre noble e ilustrado.
Este caballero creía que había encontrado una "falsedad" en los números al analizar
el juego de los dados, observando que el comportamiento de los dados era diferente
cuando se utilizaba un dado que cuando se empleaban dos dados. La "falsedad" partía
simplemente de una comparación errónea entre las probabilidades de sacar un seis con
un solo dado o de sacar un seis con dos dados. Para el caballero debía existir una
relación proporcional entre el número de jugadas necesarias para conseguir el efecto
deseado en uno y otro caso. El problema estaba en que el citado caballero no tuvo en
cuenta que en el segundo caso estaba analizando una probabilidad compuesta en donde
las distintas probabilidades se deben calcular multiplicativamente.
Este y otros problemas planteados por el caballero a Pascal sobre cuestiones
relacionadas con diferentes juegos de azar, dieron origen a una correspondencia entre el
propio Pascal y algunos de sus amigos matemáticos, sobre todo con Pierre de Fermat
(1601-1665) de Toulouse, abogado de profesión, pero gran amante de las matemáticas.
Esta correspondencia constituye el origen de la teoria moderna de la probabilidad.
En una carta de Pascal a Fermat, en la que narraba la anécdota anteriormente
mencionada, concluía que "el caballero de Meré tiene mucho talento, pero no es
geómetra; ésto es, como sabéis un gran defecto" (carta del 29 de julio de 1654).
Otro de los problemas famosos planteados por el caballero a Pascal fue resuelto por
éste y Fermat tras el carteo de manera independiente, llegando ambos a la misma
solución : En una partida de dados intervienen dos jugadores y apuestan 32 doblones de
oro cada uno, eligiendo un número diferente, gana el juego el primero que obtenga tres
veces el número que eligió. Después de un rato de juego, el número elegido por el
primer apostador ha salido dos veces mientras el otro jugador sólo una vez ha acertado,
en este instante la partida debe suspenderse. ¿Cómo dividir los 64 doblones de oro
apostados? ¿en qué proporción ha de ser compensado cada jugador?.
En la correspondencia que siguió a este problema, tanto Pascal como Fermat
estuvieron de acuerdo en que el primer jugador tiene derecho a 48 doblones de oro.
Veamos también el último de los problemas históricos ( al ser su solución parte del
inicio de la probabilidad actual) que propuso Meré y resolvieron Pascal y Fermat:
El juego consistía en lanzar 24 veces un par de dados y el problema era decidir si es lo
mismo apostar a favor o en contra de la aparición de por lo menos un seis doble.
Solución:
A= {No sacar un seis doble en una tirada de dos dados} , P(A)=35/36
P(A y A y A………24 veces….y A)= (35 / 36) 24
Este número vale 0´508596121 y por tanto la probabilidad del suceso
contrario será 1- P(A y A….24 veces…y A)= 1- 0´508596121 = 0´491

5
Luego es más probable obtener una vez un seis doble en 24 tiradas que
obtenerlo al menos una vez. En cambio para 25 tiradas cambian las cosas
pues 1- (35 / 36) 25 = 0´505

Pascal y Fermat resolvieron este problema y otros muchos y fueron los que
empezaron a formalizar la teoría de las probabilidades, probando el desacuerdo con el
caballero de Meré, este se debía a que era erróneo el cálculo que había efectuado, ya que
se equivocó en considerar equiprobables sucesos que no lo eran, y sólo cuando
los casos posibles son equiprobables tiene sentido aplicar la definición dada por Meré
de probabilidad. Sin embargo, Pascal erró al intentar extender algunos de los resultados
de los problemas del caballero al caso en el que hubiera tres o más jugadores.
Ni Pascal ni Fermat expusieron sus resultados por escrito y fue el físico-matemático
holandés Christian Huygens (1629-1695) quien en 1657 publicó un breve tratado
titulado ”De Ratiocinnis in ludo aleae” (sobre los razonamientos relativos a los juegos
de dados) inspirado en la correspondencia sostenida entre los dos creadores de la teoría
de la probabilidad. Además Huygens extendió algunos resultados de Pascal y aclaró
varios problemas para tres o más jugadores.
En 1665, Pascal publicaba Tratado sobre el triángulo aritmético, la más importante
contribución realizada hasta la fecha en el ámbito de la combinatoria. El libro se basa en
la construcción y propiedades combinatorias del posteriormente llamado triángulo de
Pascal, que es de la siguiente forma:

Fila /Columna 0 1 2 3 4 5 6 7 8

0 1
1 1 1
2 1 2 1
3 1 3 3 1
4 1 4 6 4 1
5 1 5 10 10 5 1
6 1 6 15 20 15 6 1
7 1 7 21 35 35 21 7 1
8 1 8 28 56 70 56 28 8 1

Con esta construcción Pascal demostró que el valor de la k-ésima entrada de la


⎛n⎞
n-ésima columna era el número combinatorio ⎜⎜ ⎟⎟ y enunció algunas propiedades
⎝k ⎠
importantes del triángulo como que cada elemento es la suma de todos los elementos de
la columna anterior hasta la fila anterior o como que la suma de todos los elementos de
la fila n-ésima es 2 n .
Las aportaciones de Pascal se extienden a muchos campos como el de la filosofía e
incluso al de la teología, intentando argumentar la existencia de Dios en términos
probabilísticas y gananciales ( probabilísticamente es mejor creer que no creer, es decir,
es mejor actuar como si existiera, por si acaso existe).

6
Primeras definiciones y teoremas básicos:

El primero en dar la definición clásica de probabilidad fue Jacob Bernoulli (1654–


1705), matemático suizo que trabajó en la universidad de Basilea en 1687, en su
obra”Ars conjectandi” (El arte de la conjetura) que fue publicada algunos años después
de la muerte del autor. En esta obra encontramos entre otras cosas la importante
proposición conocida como el Teorema de Bernoulli mediante el cual la teoría de la
probabilidad fue elevada por primera vez del nivel elemental de conjunto de soluciones
de problemas particulares a un resultado de importancia general. Bernoulli siempre
detacó la importancia de que los fenómenos aleatorios dejaran de enfocarse como casos
particulares y se intentara ver los conceptos generales que habías detrás de ellos, sólo
así se avanzaría y profundizaría en el entendimiento de esta materia.
Más adelante, el matemático francés exiliado en Inglaterra Abraham De Moivre
(1667–1754) aceptó la definición dada por Bernoulli y la reformuló en términos más
modernos para la época: «una fracción en la que el numerador es igual al número de
apariciones del suceso y el denominador es igual al número total de casos en los que es
suceso pueda o no pueda ocurrir. Tal fracción expresa la probabilidad de que ocurra el
suceso».
La definición clásica de la probabilidad, en su forma actual, está basada en el
concepto de equiprobabilidad de los resultados, basado a su vez en la simetría. Se
supone que un experimento se puede descomponer en n sucesos equiprobables y
mutuamente excluyentes B1 ,…., Bn llamados sucesos básicos o ‘elementales’. Así, la
probabilidad de suceso A es el número del intervalo [0,1] que expresa el cociente entre
los m sucesos elementales que componen A y el número total n de posibles sucesos
elementales. La traba fundamental que encuentra esta interpretación de la probabilidad
es la dificultad de descomponer un suceso en sucesos elementales equiprobables; lo que
es fácil para problemas sencillos ( cartas, dados, etc…), pero es de gran dificultad en
problemas más complicados.
Además otro de los descubrimientos importantes de Bernoulli fue el saber obtener la
probabilidad de ocurrencia de un suceso sin necesidad de contar los casos favorables
(bien por omisión de datos o bien por la imposibilidad de contarlos). Para ello inventó la
probabilidad a posteriori, es decir: “mediante la observación múltiple de los resultados
de pruebas similares…” De esta manera, introdujo el concepto de probabilidad
‘estadística’: asignar como probabilidad de un suceso el resultado que se obtendría si el
proceso se repitiera en condiciones similares un número grande de veces. Sin embargo,
estas condiciones no eran muy concretas y con ellas no se podía dar lugar a una
definición seria y rigurosa de todos los conceptos q manejaba Bernoulli. En primer
lugar, se habla de un ‘número grande’ de veces, pero no se da ninguna indicación sobre
cuál es ese número o lo suficientemente grande que debe ser, no se especifica tampoco
que significa condiciones similares y tampoco se establece cuál es el error admitido
respecto al resultado teórico.
Precisamente, fueron la necesidad de precisar con exactitud qué se entiende por un
‘número grande’ de repeticiones y de calcular el error del resultado obtenido respecto
del resultado teórico, lo que llevaron a Jacob Bernoulli a idear, en su forma más
intuitiva y básica, la Ley de los Grandes Números.

7
A continuación expondremos los tres teoremas más importantes de la probabilidad
clásica. Estos teoremas los idearon Bernoulli (Teorema de la suma, formalizado por
Bayes) , De Moivre (Teorema de la multiplicación) y Bayes (Teorema de la
probabilidad condicionada), aunque todos los conceptos que se manejan en estos
teoremas aparecen ya de forma implícita y muy frecuente en los diferentes trabajos de
Pascal, Fermat y Huygens.

-Teorema de la Suma:

Pascal dio a entender implícitamente que sabía cómo calcular los casos favorables
de un suceso A si conocía los casos favorables de unos Aj disjuntos cuya unión es A (es
decir, si los Aj son una partición de A). Jacob Bernoulli también fue consciente de ello,
y fue más lejos al darse cuenta de que la probabilidad de la unión no es la suma de las
probabilidades si los sucesos no son disjuntos, aunque no supo dar la razón.
No fue ninguno de ellos quien formuló finalmente el teorema de la suma de la
probabilidades, sino el reverendo inglés Thomas Bayes (1702–1761), cuyo trabajo fue
leído póstumamente, en 1763. En esta obra, Bayes da la primera definición rigurosa y
explícita de sucesos disjuntos y enunció la fórmula ahora conocida:

P(A ∪ B) = P (A) + P(B)− P(A∩B)

-Teorema de la Multiplicación:

Al igual que el teorema anterior, el teorema de la multiplicación de probabilidades


era conocido por casi todos los matemáticos anteriores a través de resultados
particulares. No obstante, fue Abraham De Moivre el primero que lo enunció
rigurosamente. De Moivre fue un hugonote francés que debido a su religión se ausentó
de Francia y vivió como refugiado en Inglaterra. Allí publicó su obra The doctrine of
chances (Doctrina de las Probabilidades) en 1711. De Moivre presentó el importante
concepto de independencia de sucesos aleatorios; así, escribió: “Diremos que dos
sucesos son independientes, si el primero de ellos no tiene ninguna relación con el otro”
y procedió a definir los sucesos dependientes: “Dos sucesos son dependientes si están
ligados el uno al otro y la probabilidad de ocurrencia de uno de ellos influye en la
probabilidad de ocurrencia del otro”. Una vez hecho esto, De Moivre lo aplicó al
cálculo de probabilidades: «la probabilidad de ocurrencia de dos sucesos dependientes
es igual a la probabilidad de ocurrencia de uno de ellos dividida por la probabilidad de
que el otro ocurra si el primero ya ha ocurrido. Esta regla puede generalizarse para
varios sucesos ». El caso de varios sucesos lo describía así: “Se necesita elegir uno de
ellos como el primero, otro como el segundo, y así. Luego, la ocurrencia del primero
debe considerarse independiente de todas las demás; el segundo debe considerarse con
la condición de que el primero ha ocurrido: el tercero con la condición de que tanto el
primero como el segundo han ocurrido, y así. De aquí, la probabilidad de las
ocurrencias de todos los sucesos es igual al producto de todas las probabilidades” Esto
es:
P( A1 ∩ A2 ∩ ..... ∩ An ) = P( A1 ) P( A2 | A1 )…….P( An | A1 ∩ .... ∩ An −1 )

La obra de De Moivre contó con tres ediciones, lo que da una idea del gran interés
que despertó esta materia en aquella época. En las dos últimas ediciones de la obra el
autor también da las primeras indicaciones acerca de la distribución normal de las

8
probabilidades, que más tarde desarrollaría un papel sumamente importante en el
desarrollo la teoría de la probabilidad.

-Teorema de Bayes:

El trabajo de De Moivre fue seguido y difundido en la mayoría de los círculos


científicos importantes de Europa y fue el británico Thomas Bayes, probablemente
alumno de De Moivre en Londres, quien extendió el trabajo del francés y expresó la
probabilidad condicional en función de la probabilidad de la intersección:

P(A/B)= [P(B/A) P(A)] / P(B)

Además, el teorema que lleva su nombre no es sólo suyo, ya que Bayes no estaba
en condiciones de formular con probabilidades totales. Fue Pierre–Simon Laplace
(1749–1827) quien mejoró y desarrolló la mayor parte del teorema de Bayes en su
Théorie analytique des probabilités (Experiencia en la Filosofía de la Teoría de la
Probabilidad) en 1812.
Sea A un suceso que ocurre en conjunción con uno y sólo uno de los n sucesos
disjuntos B1 .....Bn . Si se sabe que el suceso A ha ocurrido, ¿cuál es la probabilidad de
que el suceso B j también? Laplace respondió de la siguiente manera: “La probabilidad
de existencia de una de esas causas es igual a una fracción con un numerador igual a la
probabilidad del suceso que se sigue de esta causa y un denominador que es la suma de
las probabilidades relativas a todas las posibles causas. Si estas diferentes causas a
priori no son equiprobables, entonces en lugar de tomar la probabilidad del suceso que
sigue a cada causa, se toma el producto de esta probabilidad por tantas veces la
probabilidad de la causa”. Esta fórmula se escribe en notación más actual de la siguiente
manera:

P( Bi ) ⋅ P( A | Bi )
P( Bi | A ) = ∞

∑ P( A | B ) ⋅ P( B )
i =1
i i

Aparte de esta revisión importantísima del teorema de Bayes, Laplace incluye en su


obra una exposición sistemática muy completa de la teoría matemática de los juegos de
azar con aplicaciones a una gran variedad de cuestiones científicas y prácticas. En su
libro citado anteriormente dedica una extensa introducción escrita para los lectores no
matemáticos a explicar sus puntos de vista generales sobre todas las cuestiones y
apreciaciones de los resultados alcanzados con la ayuda de la teoría de la probabilidad.
El estudio de esta introducción es muy famoso y se recomienda a todos los interesados
en la historia de la ciencia.

9
La ley de los Grandes Números:

Jacob Bernoulli descubrió que las frecuencias observadas se acercaban al verdadero


valor previo de su probabilidad al hacer crecer el número de repeticiones del
experimento. Pero él quería encontrar una prueba científica que no sólo probara que al
aumentar el número de observaciones de la muestra se podía estimar la probabilidad
auténtica con el grado de precisión deseado en cada ocasión, sino que permitiera
calcular explícitamente cuántas observaciones eran necesarias para garantizar esa
precisión de que el resultado queda dentro de un intervalo predeterminado alrededor de
la verdadera solución.
El experimento que consiste repetir una prueba con la misma probabilidad de éxito
un número grande de veces recibió el nombre de “experimento de Bernoulli” y, más
adelante, tras la creación del concepto de variable aleatoria, la variable que contabiliza
el número de éxitos en N pruebas se llamó ‘Bernoulli’ o ‘binomial’.
Bernoulli era consciente de que, en situaciones reales y cotidianas, la certeza
absoluta, es decir, la probabilidad 1, es imposible de alcanzar. Por eso introdujo la idea
de la “certeza moral”: para que un resultado fuese moralmente cierto, debía tener una
probabilidad no menor que 0.999, mientras que un resultado con probabilidad no mayor
que 0.001 se consideraría “moralmente imposible”. Fue para determinar la certeza
moral de un suceso para lo que Bernoulli formuló su teorema, la ley de los Grandes
Números.
Para tener una idea intuitiva de este concepto, Bernoulli propuso el siguiente
ejemplo: una urna con 30.000 bolas blancas y 20.000 negras, aunque el observador no
lo sabe, pues lo que quiere es determinar la proporción entre bolas blancas y negras,
sacando una de cada vez, anotando el resultado (éxito si es blanca y fracaso si es negra)
y volviéndola a introducir en la urna. Sea N el número de observaciones, X el número
de éxitos y p = r/(r+s) la probabilidad de éxito en cada prueba, siendo r el número de
bolas blancas y s el de bolas negras. El teorema de Bernoulli afirma que dada cualquier
pequeña fracción ε (que su descubridor siempre escribía en la forma 1/(r+s)) y dado
cualquier número entero positivo grande c, se puede hallar un número N = N(c) tal que
la probabilidad de que X/N difiera de p no más de ε es mayor que c veces la
probabilidad de que X/N difiera de p más de ε. Veamos todo esto con notación
matemática:

⎧X ⎫⎪ ⎧X ⎫⎪
P⎨ − p ≤ ε ⎬ > c ⋅ P⎨ − p > ε ⎬
⎩N ⎪⎭ ⎩N ⎪⎭

O en notación más actual:

⎧X ⎫⎪ 1
∀ε > 0 ∀c ∈ Z + ∃N tal que P ⎨ − p > ε ⎬ <
⎩N ⎪⎭ c + 1

10
Bernoulli tomó como ejemplo para aclarar este problema c=1.000 y obtuvo como
resultado que eran necesarias 25.550 observaciones. La intuición le decía que no hacían
falta tantas y, por ello, lo intentó con otros valores de c. Desilusionado por sentir que
había fracasado en su intento de cuantificar la certeza moral, Bernoulli no incluyó en su
libro las aplicaciones prometidas.
El que sí lo hizo fue su sobrino Niklaus Bernoulli(1687–1759), que aplicó el
resultado de su tío a registros de 14.000 nacimientos y llegó a la inesperada conclusión
de que la frecuencia de nacimientos de niños es mayor que la de niñas, en la proporción
de 18:17. Los resultados tanto de Bernoulli como de su sobrino fueron confirmados
años después por Laplace.
De esta manera, gracias a Bernoulli, se introdujo en la teoría de la probabilidad la
ley de los Grandes Números, uno de los conceptos más importantes en calculo de
probabilidades, muestreos, etc… y con amplias aplicaciones en muchos campos de la
estadística y de las matemáticas y la ciencia en general. Esta ley además será objeto de
conversaciones entre matemáticos en los siglos venideros, estando sujeta a constantes
estudios, mejoras y ampliaciones hasta prácticamente nuestros días.

El Teorema central del Límite:

A raíz del descubrimiento de la Ley de los Grandes Números, se planteó el


problema de estimar la suma de un subconjunto de elementos de una expresión de
carácter binomial. La dificultad era calcular una probabilidad que Bernoulli ya había
dejado indicada y demostrada y era la probabilidad de que el número de éxitos de un
suceso de probabilidad p y n pruebas estuviera entre A y B.
⎛m⎞
Según Bernoulli esta probabilidad era: ∑ ⎜⎜ ⎟⎟ ⋅ p k ⋅ (1 − p ) m − k y la dificultad que
A< k < B ⎝ k ⎠

⎛ m⎞ m!
entrañaba esta operación era el cálculo del número combinatorio ⎜⎜ ⎟⎟ =
⎝ k ⎠ k!⋅(m − k )!
Jacob consiguió realizar ciertas estimaciones de dudosa precisión, pero que al no
manejar números muy grandes fueron suficientes para demostrar sus teoremas.
Posteriormente, De Moivre intentó ser algo más preciso y demostró que para B
1
m+
−m
constante m! ≈ B ⋅ e ⋅m
. Con el fin de determinar el valor de esa constante,
2

1 1 1 1
construyó la siguiente expresión logarítmica: ln B= 1 − + − + − ......
12 360 1260 1680
y concluyó según sus cálculos que B era igual a 2´5074. Este resultado parecía
convincente, pero De Moivre no quedó satisfecho al no poder vincularlo con ninguna
constante matemática conocida. Por ese motivo pidió consejo y ayuda a su buen amigo
James Stirling (1692-1770) quien demostró que B= 2π .
Tras la obtención de este importante dato, De Moivre calculó una tabla m! y obtuvo
un resultado que dice lo siguente:

⎧ n ⎫ ⎧ n⎫ 2 2 2
P ⎨ X = + t ⎬ ≈ P ⎨ X = ⎬ ⋅ e −( 2t / n ) = ⋅ e −( 2t / n)

⎩ 2 ⎭ ⎩ 2⎭ 2πn

11
De Moivre dibujó la gráfica de esta curva, introduciendo el importantísimo concepto
de “distribución normal” y demostró que esta curva es simétrica en torno al máximo y
1
que los puntos de inflexión están a distancia ⋅ n de este máximo. Por tanto , aquí
2
está el Teorema Central del Límite que se conoce como el hecho de que el promedio de
una muestra aleatoria independiente convenientemente normalizada sea
aproximadamente normal.
Ahora De Moivre ya estaba en condiciones de resolver el problema planteado por
Bernoulli en la Ley de los Grandes Números:

⎧ n ⎫
k
2
∑ P⎨⎩ X = 2 + t ⎬ = ∫e
2
−( 2t / n)
dt
⎭ 2πn 0

Para finalizar, De Moivre encontró que n era la unidad cuya distancia del centro
debe ser medida. Así, la precisión de una estimación de la probabilidad aumenta igual
que la raíz cuadrada del número de experimentos; en otras palabras, De Moivre acababa
de descubrir la importancia de la varianza.
De Moivre repitió el experimento de Bernoulli y obtuvo que bastaban 6.498
observaciones. Aunque mejoró el método, no llegó a reconocer la importancia del
decubrimiento de la curva de la normal y no pudo aplicar su resultado a otros
problemas.

Problemas importantes de la historia:

- La ruina del jugador:

El problema consiste en lo siguiente: los jugadores A y B tienen a y b monedas,


respectivamente. Después de cada juego, el ganador le quita una moneda al perdedor.
La probabilidad de ganar de A es p la de B es q = 1–p. ¿Cuál es la probabilidad p A de
que el jugador A arruine totalmente al jugador B?
Primeramente digamos que este problema de la “ruina del jugador” tuvo un papel
importantísimo en el desarrollo de la teoría de la probabilidad, pues era bastante
complejo para la época y exigió la creación de nuevos métodos para su resolución;
Además fue el inicio de toda la matemática relativa a los procesos estocásticos y parte
de la teoría de la decisión y los juegos.
Este problema fue propuesto por primera vez por Huygens en uno de sus libros, y lo
acompañó de una solución que años después Bernoulli criticó argumentando que
restringía la posibilidad de encontrar una regla general para el resolver el problema.
Otros matemáticos como De Moivre, Laplace o Nicolás Bernoulli también
trabajaron en este problema, demostrando que eran capaces de trabajar con operaciones
y sucesos probabilísticas muy avanzados para la época y que conocían la aplicación de
multitud de teoremas incluso antes de ser formulados formalmente.
Los primeros que dieron solución a este problema fueron De Moivre y Nicolás
Bernoulli, prácticamente a la vez, entorno a 1710, y de manera independiente.

12
De Moivre halló la siguiente solución:

a b
⎛ p⎞ ⎛ p⎞
⎜⎜ ⎟⎟ − 1 ⎜⎜ ⎟⎟ − 1
p A = ⎝ ⎠a +b p B = ⎝ ⎠a +b
q q
y
⎛q⎞ ⎛ p⎞
⎜⎜ ⎟⎟ − 1 ⎜⎜ ⎟⎟ − 1
⎝ p⎠ ⎝q⎠

Nicolás Bernoulli incluyó además el número esperado ( utilizando el concepto de


esperanza) de pruebas o juegos necesarios para que un jugador sea arruinado por el otro.

b ⋅ p A − a ⋅ pB
E(N ) =
p−q

- La paradoja de San Petersburgo:

Se propone un juego de azar en el que pagas una apuesta inicial fija. Consiste en el
lanzamiento de una moneda repetidamente hasta que aparece la primera cara. Una vez
aparece, ganas una moneda si la cara aparece en el primer lanzamiento, dos monedas si
aparece en el segundo, 4 monedas si aparece en el tercero, 8 en el cuarto, etc., doblando
el premio en cada lanzamiento adicional. Así, ganarías 2k−1 monedas en k lanzamientos.
¿Cuánto estarías dispuesto a pagar para jugar a este juego?

La probabilidad de que la primera cara aparezca en el lanzamiento k es de:

La probabilidad de que ganes más de 210 monedas es menor que una entre mil. La
probabilidad de que ganes más de 1 es menor que una entre cien. A pesar de ello ¡el
valor esperado del premio es infinito!

Para calcularlo:

Esta suma diverge a infinito. Así, de acuerdo a la teoría tradicional del valor
esperado, no importa cuanto pagues por entrar en el juego, porque saldrás ganando a
largo plazo (imagina pagar 1 billón cada vez, para ganar la mayor parte de las veces
sólo un par de monedas). Su idea consiste en que las raras ocasiones en las que ganes

13
una cantidad elevada pagarán con creces los cientos de trillones que habrás tenido que
pagar para jugar.

Este juego fue propuesto en 1713 por Nicolás Bernoulli y se conoce con este
nombre porque San Petersburgo fue la ciudad donde Nicolás y si hermano Daniel
discutieron sobre este problema. De esta forma se puso de manifiesto que la opción
aparentemente más razonable no siempre es la más correcta desde el punto de vista
matemático.

14
3.LA TEORÍA MODERNA DE LA PROBABILIDAD

La teoría de la probabilidad en el siglo XIX:

A partir, fundamentalmente, de Laplace las dos disciplinas más importantes dentro


de la teoría de la probabilidad, que eran el cálculo de probabilidades y la estadística se
fusionaron de manera que el cálculo de probabilidades se convirtió en el andamiaje
matemático de la estadística. Toda la base matemática que permitió desarrollar la teoría
de probabilidades está extraída del análisis combinatorio, una disciplina iniciada por
Leibniz y Jacob Bernoulli. Posteriormente con el paso del tiempo fue introduciendo la
teoría de límites disminuyendo el peso que tenía el análisis combinatorio.
Esta fue sólo la primera de las modernizaciones que sufriría la probabilidad el el
siglo XIX. Otra de las más importantes fue la que llevó a cabo el matemático alemán
Karl Friedrich Gauss (1777-1855), que desarrolló la teoría de errores conjuntamente
con Bessel y Laplace, llegando a establecer el método de mínimos cuadrados como el
procedimiento más elemental para resolver los problemas de la teoría de errores. Gauss
y Laplace, independientemente aplicaron conceptos probabilísticos al análisis de los
errores de medida de las observaciones físicas y astronómicas. De hecho, científicos
consagrados de la época como Maxwell, Boltzmann y Gibbs aplicaron la probabilidad
en su obra "Mecánica Estadística". La teoría de los errores constituye la primera rama
de la estadística que puede constituirse como una estructuración teórico-matemática.
Resaltemos ahora uno de los resultados importantes en teoría de errores de Gauss
(también hallado de manera independiente por A.Legendre(1752-1833)) que
demostraba que, bajo ciertas condiciones generales, la función de densidad de los
errores de medida tiene la forma:

h 2 2
φ (Δ) = ⋅ e −h Δ
π

Otras contribuciones importantes a la teoría de errores fueron las de Simeon Denis


Poisson (1781-1840) que descubrió que la media aritmética no es siempre mejor que
una única observación, A.Cauchy(1789-1857) y más tarde de matemáticos rusos como
P.Chebyshev(1821-1894).

Al margen de la teoría, el francés Poisson aportó otras cosas destacadas a la teoría


de la probabilidad, como la distribución que lleva su nombre y que es aplicable a
fenómenos poco comunes y extraños. En 1837 publica su trabajo En 1837 publica su
trabajo en Recherches sur la Probabilité des Jugements. Poisson originalmente estudió
Medicina, en 1789 se dedicó al campo matemático en la Escuela Politécnica. Fue muy
amigo de Laplace y de Lagrange. Publicó alrededor de 400 artículos en matemática y
estadística. Pese al éxito de las aplicaciones se oyeron voces de inconformidad a la
definición clásica de probabilidades, que exigía "a priori" saber que todos los eventos
eran igualmente posibles. Además, en ciertos casos era imposible aplicar la definición
clásica de la probabilidad. Pese a los avances de Poisson, esto no se resolvería hasta el
siglo XX.

15
Sin embargo lo que sí hizo Poisson, fue introducir de alguna manera el concepto de
variable aleatoria, no como lo entendemos actualmente, sino esbozando sus primeros
pasos como un conjunto de b1 , b2 ,..., bn cada uno con su probabilidad p1 , p 2 ,...., p n .
Posteriormente, Chebyshev asumió que esos conjuntos de los que hablaba Poisson eran
independientes e introdujo el término” variable aleatoria” que aún tiene validez en la
actualidad y fue A.Liapunov (1857-1918) quien especificó que estas variables no serían
siempre independientes y que esa dependencia estaba sujeta a ciertas condiciones.
Además Liapunov dio una definición de distribución casi exacta a la actual:
P (a < ε < b ) = F (b ) − F ( a )

Perfeccionamiento de la Ley de los Grandes Números y el TCL:

La ley de los Grandes Números propuesta años atrás por Jacob Bernoulli fue
generalizada por primera vez en 1837 por Poisson, que además la bautizó con este
nombre. El francés consideró el siguiente experimento: Sea una sucesión de n pruebas
independientes, en cada una de las cuales un suceso B puede ocurrir con probabilidad
p k con k = 1,…,n. Si α n es el número de ocasiones en las que sucede B en n pruebas,
⎧α p + p 2 + .... + p n ⎫⎪
entonces tenemos que: ∀ε > 0 P⎨ n − 1 < ε ⎬ ⎯n⎯
⎯→ 0
→∞
⎩ n n ⎪⎭
Posteriormente, en 1843 Chebyshev criticó el teorema de Poisson y enunció su
propia versión. No obstante, era muy similar a ésta y ninguna de las dos superaban
cualitativamente la idea original de Jacob Bernoulli. No fue hasta 1867, época en la que
Chebyshev empezó a trabajar con variables aleatorias, cuando se produjo ese avance en
las investigaciones.
Ya en 1909, Émile Borel (1871-1956) se dio cuenta de que el trabajo de Bernoulli
llevaba a una afirmación más importante que simplemente la ley de los Grandes
Números para p = 0´5 y el matemático italiano Francesco Cantelli (1875-1966)
descubrió lo que se denomina ley Fuerte de los Grandes Números añadiendo el hecho
⎧ α ⎫
de que para cualquier valor de p: P ⎨ L n = p ⎬ = 1 . A lo largo del siglo XX otros
⎩n →∞ n ⎭
matemáticos como Kolmogorov y Khinchine trabajaron también aportando detalles y
generalizaciones de este problema.

Hablemos ahora del perfeccionamiento del Teorema Central del Límite. Los
esfuerzos realizados por lograr una generalización del teorema planteado por De Moivre
fueron arduos y complicados y, aunque Laplace ya aportó estudios nuevos alrededor de
1809, matemáticos de renombre como Poisson o Bessel intentaron dar sus propias
versiones de un teorema local del límite y erraron.
No sería hasta el año 1887, cuando Chebyshev demostró un teorema acerca de la
acotación de la suma de una variable aleatoria con esperanza 0. Para demostrar esto,
inventó el Método de los momentos, pieza fundamental de la teoría estadística actual.
A.Markov (1856-1922), discípulo de Chebyshev, se dio cuenta posteriormente de
algunos errores de su maestro y revisó la fórmula. Esta es la versión del teorema de
Chebyshev que revisó Markov en 1898:

16
Sea S n la sucesión de las sumas c1 + c 2 + .... + c n y ϕ n (x) la función de distribución
∞ ∞
1
de cn . Si ∀k se cumple que ∫ x k dϕ n ( x) → ⋅ ∫ x k e −x
2
/2
dx , entonces ∀a, b
−∞ 2π −∞

⎧ Sn ⎫ 1
b
⋅ ∫ e −x
2
P ⎨a < < b⎬ → /2
dx .
⎩ Var ( S n ) ⎭ 2π a

En 1900, Liapunov siguió perfeccionando el teorema y demostró que si las variables


aleatorias tenían momento de orden tres finito, las funciones de distribución de S n
convergían a una distribución normal. Además esta demostración no necesitaba el
Método de momentos ideado por Chebyshev para ser resuelta.
El matemático finlandés Lindeberg fue más allá que Liapunov en 1922, al no pedir
la existencia de ningún momento salvo el de orden dos. Asi vio que la distribución de
una suma de variables aleatorias, centradas en sus esperanzas y normadas por la raíz
cuadrada de la suma de sus varianzas converge a una distribución normal estándar si se
1
cumple ∀t > 0 L ⋅ ∑ ∫ ( x − a k ) 2 dF ( x) = 0 . Más tarde en 1942, William
− >τ
n → x B 1≤ k ≤ n
x a k Bn

Feller se dio cuenta de que la condición de Lindeberg era necesaria además de


suficiente, resultado al que también llegó de manera independiente Paul Levy
(1886-1971).

Escuelas del siglo XX :

Durante la última parte del siglo XIX y ya sobre todo en el siglo XX, tuvo lugar la
creación de diferentes escuelas y tendencias dedicadas al estudio de la matemática en el
campo de la peoría de la probabilidad en particular. Las más importantes fueron:

-La escuela rusa:

Los matemáticos rusos dominaron todas las áreas relativas al cálculo de


probabilidades y a la estadística durante la segunda mitad del siglo XIX y ya en el siglo
XX formaron una escuela dirigida principalmente por Andrei N.Kolmogorov (1903-
1987) y Khinchine. Los precursores de esta escuela de conocimiento fueron
Chebyshev, Markov y Liapunov entre otros, pero fue Kolmogorov el máximo
exponente de este movimiento.
Kolmogorov nació en Tambor. Su madre murió en el parto y su padre era un
cualificado agrónomo y estadístico. Realizó su primer trabajo evaluando los
estudios sobre probabilidades efectuados entre los siglos XV y XVI, apoyándose en los
trabajos de Bayes. En 1924 comenzó su interés en la teoría de la probabilidad, la cual lo
consagró. En 1927 había completado sus investigaciones sobre suficiencia y
condiciones necesarias de la ley débil de los grandes números, comenzada por J.
Bernoulli. En 1930 se hace eco de la ley Fuerte de los Grandes Números de Cantelli, y
trabaja para mejorarla y generalizarla. El año anterior había publicado "La Teoría
General de la Medida y el Cálculo de Probabilidades". En 1950 completó uno de los
trabajos más importantes en Estadística "Estimadores Insesgados". Kolmogorov dio
solución a una parte del sexto problema de Hilbert, en el que se pedía un fundamento

17
axiomático de la teoría de probabilidades, utilizando la medida de Lebesgue. Este fue el
comienzo del aporte más importante que Kolmogorov hizo a la teoría del cálculo de
probabilidades, o al menos por el que más se le conoce y del que hablaremos
posteriormente: la axiomatización de la probabilidad.

-La escuela estadounidense:

Los principales exponentes de la escuela estadounidense especializada en la rama de


la probabilidad son Feller y Doob, aunque el iniciador de este movimiento fue Nortber
Wiener (1894-1964) quien desarrolló una medida de las probabilidades para conjuntos
de trayectorias que no son diferenciables en ningún punto, asociando una probabilidad a
cada conjunto de trayectorias. Construyó así una probabilidad que permitía describir el
fenómeno en términos matemáticos en lo que se refería a la trayectoria y posición de las
partículas a través del tiempo. Aportó ejemplos de cómo aplicar el estudio de las
probabilidades al desarrollo y progresos de la ciencia.
Por otra parte William Feller se hizo conocido por sus numerosos estudios acerca
del Teorema Central del Limite y por su impecable demostración de que la condición de
Lindeberg era necesaria además de suficiente.

-La escuela francesa:

Esta escuela se formó con Meyer y su grupo de Estrasburgo y también con Nevev y
Fortret de París, aunque sin duda resalta por encima de todos la figura de Paul Levy.
Los estudios más importantes referidos a este movimiento se llevaron a cabo en la
universidad de París, en la que por ejemplo un grupo de matemáticos encabezados por
Laurent Schuwartz generalizaron el concepto de diferenciación utilizando la teoría de
distribuciones.Esta aportación fue de vital importancia, ya que en la actualidad no es
posible dar explicaciones rigurosas de probabilidad sin utilizar estos conceptos. La
innovación y métodos de la escuela francesa influyó de manera decisiva en las dos
escuelas anteriores.

Kolmogorov y la axiomatización de la probabilidad:

Alrededor de 1909, Borel ya consideró la importancia de la teoría general de la


medida para la construcción de ciertos pilares y fundamentos de la teoría de la
probabilidad, pero no fue hasta el año 1933 cuando Kolmogorov se propuso construir
una teoría de la probabilidad totalmente rigurosa basada en axiomas fundamentales.
La construcción axiomática de la teoría de la probabilidad procede de las
propiedades fundamentales de la probabilidad observadas en los ejemplos que ilustran
las definiciones clásica y frecuentista. Así, la definición axiomática las incluye como
casos particulares y supera las carencias de ambas.
De esta manera, la probabilidad pudo desarrollarse como un teoría completamente
lógica al mismo tiempo que siguió permitiendo resolver los problemas aplicados de la
ciencias modernas y la tecnología.
La definición axiomática da una equivalencia entre los conceptos de la teoría de la
medida y los de la teoría de la probabilidad. Se toma un conjunto de medida 1, Ω,
cuyos elementos son sucesos elementales y se considera una σ–álgebra A, un
subconjunto de Ω que satisface que incluye a Ω y a Ø, que es cerrado por

18
complementación y por uniones numerables. Luego se define una función P que asigna
a un suceso un número entre 0 y 1 (su medida). Así, la terna (Ω, A, P) se convierte en
un espacio de probabilidades. No obstante, la teoría de la probabilidad y la de la medida
permanecen perfectamente diferenciadas, ya que la segunda carece de algo necesario en
la primera; la independencia de variables aleatorias.

Los axiomas de Kolmogorov que definen la probabilidad son los siguientes:

1. Para cada suceso aleatorio B hay asociado un número no–negativo P(B) que se llama
su probabilidad.
2. P(Ω)=1
3. Si los sucesos B1 , B2 ,...., Bn son mutuamente excluyentes dos a dos, entonces,
P ( B1 + B2 + .... + Bn ) = P( B1 ) + P( B2 ) + .... + P ( Bn )
Del hecho de que Ω = Ø ∪ Ω y el axioma 3 se deduce que P(Ω) = P(Ø) ∪ P(Ω) ,
y de esto se deduce la siguiente serie de resultados destacados:

P(Ø) = 0

∀ B , P( B c )= 1 − P(B)

∀ B, 0 ≤ P(B) ≤ 1

B ⊆ C ⇒ P(B) ≤ P(C)

P ( B ∪ C ) = P ( B ) + P (C ) − P ( B ∩ C )

n
P( B1 ∪ .... ∪ Bn ) ≤ ∑ P( B j )
j =1

Vemos que de los tres axiomas fundamentales de Kolmogorov se deducen la


mayoría de las propiedades fundamentales de la probabilidad que conocemos y
manejamos hoy en día. Además estos axiomas tienen la ventaja de que son consistentes,
ya que existen objetos reales que los satisfacen y, por lo tanto, concretan la matemática
en el nuestra vida.

19
TRATAMIENTO Y
COMENTARIO DE
UN
TEXTO ORIGINAL

20
LA PROBABILIDAD EN LAPLACE

1. Introducción:

El texto comentado a continuación


es un fragmento de la obra Essai
philosophique sur les probabilités del
matemático Pierre Simon Laplace
(1749-1827).
Este francés fue conocido por su
curiosidad universal que le llevó a
indagar en casi todas las áreas del
conocimiento, logrando sus más
exitosos resultados tanto en mecánica
celeste como en la teoría de las
probabilidades, de la que trata este
ensayo.
Gracias a sus trabajos, la teoría
anterior sobre los juegos de azar se
convirtió en la rama del análisis
conocido con el nombre de cálculo o
teoría de las probabilidades, que
incorporó a su dominio temas
pertenecientes a diferentes campos
como astronomía, demografía y
filosofía.
Este libro es el desarrollo de unas
clases dadas en 1795 en las Escuelas
Normales de París y se propone situar
al alcance de los no matemáticos los principios y resultados generales de la teoría de la
probabilidad.

En la imagen podemos observar la portada original del libro del que, a continuación
pasaremos a comentar algunos fragmentos.

2. Metodología

La parte seleccionada corresponde a la introducción del libro, en la que Laplace


presenta los principios y fundamentos de la probabilidad y el cómo y el por qué se
interesa por esta rama de las matemáticas.
El texto original se sitúa en la columna de la izquierda y la traducción simultánea a
la derecha para facilitar la lectura. Antes de cada fragmento e intercaladamente se irán
haciendo comentarios acerca del contenido y el trasfondo del texto.

21
3. Traducción y comentario del texto seleccionado

-Justificación de la Laplace sobre por qué escribe el Essai philosophique sur les
probabilités:

En este primer fragmento, Pierre Simon Laplace realiza una breve explicación de
cómo se le ocurrió la idea de hacer un ensayo para hablar acerca de la probabilidad.
Explica que ha publicado otra obra ( Theorie analytique des Probabilités) en la que
expone un amplio curso de probabilidad, pero que en este libro no se servirá de
resultados matemáticos sino que intentará acercarnos la probabilidad aplicándola a los
problemas de la vida.
Laplace muestra, sorprendentemente y desde el principio, una concepción
probabilística del entendimiento frente a su ya conocido determinismo, que quedará
totalmente plasmada en los próximos párrafos.

Este Ensayo filosófico del desarrollo de


una lección que di en 1795 sobre las
probabilidades en las Escuelas Normales,
de las que fui designado profesor y que
apareció en el Journal de las sesiones de
dichas escuelas. Poco después he publicado
sobre este mismo tema una obra que lleva
por titulo Théorie analytique des
Probabilités. Lo que aquí voy a hacer es
exponer, sin el auxilio del análisis, los
principios y resultados generales de esta
teoría, aplicándolos a los problemas más
importantes de la vida, la mayor parte de
los cuales no son sino problemas de
probabilidad. Se verá, no sin interés, que
aun cuando los principios eternos de la
razón, la justicia y la humanidad, sólo se
consideren las probabilidades favorables
que constantemente les acompañan, tiene
una gran ventaja el seguirlos y graves
inconvenientes en apartarse de ellos por la
razón de que dichas probabilidades, lo
mismo que las que resultan agraciadas en
las loterías, acaban siempre por prevalecer
en medio de las oscilaciones del azar. Me
gustaría que las reflexiones diseminadas por
este Ensayo fuesen merecedoras de la
atención de los filósofos y lograran dirigirla
hacia un objeto tan digno de sus desvelos.

22
- Determinismo e interés por la probabilidad en Laplace:

Entre estas líneas se encuentra quizás una de las más célebres frases de Laplace:

“Una inteligencia que, en un momento determinado, conociera todas la fuerzas que


animan la naturaleza, así como la situación respectiva de los seres que la componen, si
además fuera lo suficientemente amplia como para someter a análisis tales datos, podría
abarcar en una sola fórmula los movimientos de los cuerpos más grandes del universo y
los del átomo más ligero; nada le resultaría incierto y tanto el futuro como el pasado
estarían presentes a sus ojos”.

Este bellísimo pasaje muestra el claro carácter determinista de Laplace, que


extrapola a todos los fenómenos naturales el determinismo de la mecánica clásica. Por
tanto la pregunta que nos hacemos es: ¿cómo un científico de la época ilustrada con
marcadas tendencias deterministas se interesa por una rama tan “antideterminista” y
aleatoria como la probabilidad? La respuesta podemos encontrarla justo a continuación,
en el siguiente párrafo:

“El espíritu humano ofrece, en la perfección que ha sabido dar a la astronomía, un


débil esbozo de esta inteligencia. Sus descubrimientos en mecánica y geometría le han
puesto en condiciones de abarcar en las mismas expresiones analíticas los estados
pasados y futuros del sistema del mundo…Todos los esfuerzos por buscar la verdad
tienden a aproximarlo continuamente a la inteligencia que acabamos de imaginar, pero
de la que siempre permanecerá infinitamente alejado”.

He aquí, por tanto, la razón que lleva a Laplace a interesarse tan profundamente por
la probabilidad. Y es que él, al lado de una firme concepción determinista acerca de la
naturaleza humana, conocida por todos los que le rodeaban y por nosotros en la
actualidad, mantuvo la convicción de que la posibilidad del hombre de alcanzar la
certeza absoluta está completamente cerrada, y que lo más que puede aspirar a alcanzar
es el conocimiento meramente probable. Este firme pensamiento es el que le lleva a
emprender sus estudios sobre probabilidad.

23
De la Probabilidad
Todos los acontecimientos, incluso aquellos
que por su insignificancia parecen no
atenerse a las grandes leyes de la
naturaleza, no son sino una secuencia tan
necesaria como las revoluciones del sol. Al
ignorar los lazos que los unen al sistema
total del universo, se los ha hecho depender
de causas finales o del azar, según que
ocurrieran o se sucedieran con regularidad
o sin orden aparente, pero estas causas
imaginarias han ido siendo descartadas a
medida que se han ido ampliando las
fronteras de nuestro conocimiento, y
desaparecen por completo ante la sana
filosofía que no ve en ellas más que una
expresión de nuestra ignorancia de las
verdaderas causas.
Los acontecimientos actuales mantienen
con los que les preceden una relación
basada en el principio evidente de que una
cosa no puede comenzar a existir sin una
causa que la produzca. Este axioma,
conocido con el nombre de principio de
razón suficiente, se extiende incluso a las
acciones más indiferentes. La voluntad más
libre no puede producirlas sin un motivo
determinante, pues si, siendo absolutamente
iguales todas las circunstancias de dos
situaciones, actuara en una y dejara de
hacerlo en la otra, su elección sería un
efecto sin causa y ella sería entonces, como
dice Leibniz, el azar ciego de los epicúreos.
La opinión contraria es una ilusión del
espíritu que, perdiendo de vista las fugaces
razones de la elección de la voluntad en las
cosas indiferentes, se persuade de que ella
se ha determinado por sí misma, y sin estar
motivada por nada.
Así pues, hemos de considerar el estado
actual del universo como el efecto de su
estado anterior y como la causa del que ha
de seguirle. Una inteligencia que, en un
momento determinado, conociera todas la
fuerzas que animan la naturaleza, así como
la situación respectiva de los seres que la
componen, si además fuera lo
suficientemente amplia como para someter
a análisis tales datos, podría abarcar en una
sola fórmula los movimientos de los
cuerpos más grandes del universo y los del
átomo más ligero; nada le resultaría incierto
y tanto el futuro como el pasado estarían
presentes a sus ojos. El espíritu humano
ofrece, en la perfección que ha sabido dar a

24
la astronomía, un débil esbozo de esta
inteligencia. Sus descubrimientos en
mecánica y geometría le han puesto en
condiciones de abarcar en las mismas
expresiones analíticas los estados pasados y
futuros del sistema del mundo. Aplicando el
mismo método a algunos otros objetos de
su conocimiento, ha logrado reducir a leyes
generales los fenómenos observados y a
prever aquellos otros que deben producirse
en ciertas circunstancias. Todos los
esfuerzos por buscar la verdad tienden a
aproximarlo continuamente a la inteligencia
que acabamos de imaginar, pero de la que
siempre permanecerá infinitamente alejado.
Esta tendencia, propia de la especie
humana, es la que la hace superior a los
animales, y sus progresos en este ámbito, lo
que distingue a las naciones y los siglos y
cimenta su verdadera gloria.

- Definición de probabilidad:

En el siguiente fragmento del texto es donde tenemos una clara formulación de la


definición de probabilidad:

“La teoría del azar consiste en (…) determinar el número de casos favorables al
acontecimiento cuya probabilidad de busca. La proporción entre este número y el de
todos los casos posibles es la medida de esta probabilidad, que no es, pues, más que una
fracción cuyo numerador es el número de casos favorables y cuyo denominador el de
todos los posibles”

Esta definición ha sido fundamental para el desarrollo de la probabilidad durante


más de dos siglos, hasta que en la primera mitad del siglo XX, Kolmogorov extendió el
concepto introduciendo la probabilidad axiomática.

La vigencia de este y otros conceptos formulados por Laplace dan una idea de la
universalidad de los estudios realizados por el francés y su importancia a lo largo de la
historia.

25
La probabilidad es relativa en parte a
esta ignorancia y en parte a nuestros
conocimientos. Sabemos que de tres o más
acontecimientos sólo debe ocurrir uno, pero
nada induce a creer que ocurrirá uno de
ellos más bien que los otros. En este estado
de indecisión nos resulta imposible
pronunciarnos con certeza sobre su
acaecimiento. Sin embargo, es probable que
uno de estos acontecimientos, tomado
arbitrariamente, no acaezca, pues vemos
varios casos iguales de posibles que
excluyen su acaecimiento, mientras que
sólo uno lo favorece.
La teoría del azar consiste en reducir
todos los acontecimientos del mismo tipo a
un cierto número de casos igualmente
posibles, es decir, tales que estemos igual
de indecisos respecto a su existencia, y en
determinar el número de casos favorables al
acontecimiento cuya probabilidad se busca.
La proporción entre este número y el de
todos los casos posibles es la medida de
esta probabilidad, que no es, pues, más que
una fracción cuyo numerador es el número
de casos favorables y cuyo denominador el
de todos los posibles.

- Crítica a la astrología y elogio a las ideas ilustradas:

Por último, en estos párrafos Laplace critica la manera de pensar de la época, sus
fuentes de conocimiento y la educación. Pone el ejemplo de la astrología, contra la que
a lo largo de toda su vida arremete duramente, y critica que tanto ésta como otras
enseñanzas son inculcadas desde la infancia en base únicamente a creencias universales
arraigadas entre la población y sin ningún fundamento científico. También cree que con
la llegada de las nuevas ideas ilustradas eso va a cambiar y comenta que la tarea de
educar al pueblo debe reservarse a gente instruida, imparcial y crítica con la realidad
que les rodea.
Una vez aclarado este punto pasa a enumerar los principios generales del cálculo de
probabilidades, ya conocidos por todos nosotros.
La propagación de estos errores que, en
tiempos de ignorancia, han cubierto la faz
de la tierra, se debe a la influencia de la
opinión de aquellos que la muchedumbre
considera más preparados y en quienes
suele depositar su confianza en lo que se
refiere a los asuntos más importantes de la
vida. La astrología nos ofrece un buen
ejemplo. Estos errores, inculcados en la
infancia, adoptados sin examen y sin otra
base que la creencia universal, se han
mantenido durante mucho tiempo, hasta
que por fin el progreso de las ciencias los
ha erradicado del espíritu de los hombres
ilustrados, cuya opinión los ha hecho
desaparecer después del pueblo mismo
gracias al poder de la imitación y de la
costumbre que con tanta generosidad los
había difundido. Este poder, el resorte más
potente del mundo moral, establece y
preserva en toda una nación ideas
enteramente contrarias a las que, con igual
dominio, mantiene en otro sitio. ¡Qué
tolerancia no habrá que tener hacia las
opiniones distintas de las nuestras, cuando
esta diferencia no depende generalmente de
otra cosa que los diferentes puntos de vista
en que las circunstancias nos han colocado!
Enseñemos a los que no consideramos
suficientemente instruidos, pero no sin
antes examinar rigurosamente nuestras
propias opiniones y sopesar con
imparcialidad sus probabilidades
respectivas.

27
BIBLIOGRAFÍA

HISTORIA DE LA PROBABILIDAD:

LIBROS:

-De Groot, Morris H., Probabilidad y estadística, Addison-Wesley Iberoam. 1988


-Cooke, Roger, The History of Mathematics.A brief course. John Wiley & Sons,1997
-Cramer, Elementos de la Teoría de probabilidades y algunas de sus aplicaciones
(traducción de Anselmo Calleja), Aguilar 1960
-Todhunter, Isaac, History of the theory of probability, Chelsea, 1965
-Gnedenko, Boris, Theory of probability. Gordon & Breach science publications,1997
-Gillispie, Dictionary of scientific biography, Charles Scribner's Sons, 1981

INTERNET:

- http://www-groups.dcs.st-and.ac.uk/-history/ (McTutor history of mathematics)


- http://www.arrakis.es/~mcj/prb019.htm (Solución del problema del c.de Meré)
- http://www.sectormatematica.cl/biografias.htm (Breves apuntes biográficos)
- http://kogi.udea.edu.co/revista/16/16-1-
11.pdf#search=%22historia%20de%20la%20probabilidad%22
(Ponencia breve acerca de la probabilidad)
- http://www.monografias.com/trabajos/renacim/renacim.shtml ( texto sobre el
renacimiento, usado para conocer la época y contexto histórico)

TRATAMIENTO DE TEXTO ORIGINAL:

-Laplace, Pierre-Simon, Ensayo filosófico sobre las probabilidades, traducción de


Pilar Castillo, Alianza editorial, 1985
- http://www.google.es/books?hl=es (Búsqueda de libros de google)

http://www.google.es/books?vid=OCLC01450686&id=kquzFVmtQ04C&pg=PA1&lpg
=PA1&dq=essai+laplace#PPP3,M1 (dirección exacta del libro)
29
30
31
32

You might also like