You are on page 1of 32

LA PROBABILIDAD Y SuS INTERPRETA^IONES

S^e^urulo Gutiérrez Cabris

Il^tSTITUTO NACIONAL DE ESTADISTICA

1.- I.NTRODUCGION

La teoría de la probab' ' dad está en la base del rnétodo estad ístico. La for-
ma clásica de la ley científica, la relación funcional dpterminista que l:ba las magni-
tudes que en ella figuran, es un caso 1 ímite, una esquematización permitida cuando
Yuede despreciarse la interacción universal que introduciría rigurosamente un hátito
de incertidumbre y, en consecuencia, una relación sólo probable.
Ante lo probable, el hombre formado en la lógica clásica, se encuentra, no
sólo ante una técnica nueva, sino ante un modo nuevo de pensar que implica un modo
nuevo de juzgar, de prever y de actuar. Si logra dominar esta nueva lógica de lo pro-
bable, se encontrará ricamente recompensado, pues el pensamiento probabilista se
adapta infinitamente mejor a la diversidad de criaturas y circunstancias, que consti-
tuyen el universo, que los esquemas demasiado perfectos del análisis clásico.
La probabilidad pertenece al mundo físico y no puede reducirse a una simple
relación entre casos favorables y casos posibles, ni siquiera a la teoría de la med.ida,
como podría deducirse de exposiciones que figuran en ciertos manuales.
"El cálculo de Frobabilidades es seguramente una rama de las maternáticas,
afirma [Jllmo, pero en el sentido en que lo es tarnbién la Mecánica Racional; estas dos
disciplinas no aportan su nombre, sino porque responden a ciertas propiedades del
universo concreto, donde se encuentran aquí masas, fuerzas, allí condiciones de ex-
periencias que justifcan la introducción de la probabilidad". ( l).

( 7) J. Ullmo : Prólogo al libro de J. Mothea, " Previsions et Décisions Statistiques dans 1'Entrepise".
^Dónde termina el Cálculo de Probabilidades, y dónde empieza la Estadísti-
ca? . Oigamas a un prafesar de la Sarbona, Daniel Dugué, y observemos la termino-
logía por él empteada: "Si se quiere fijar una frontera entre Estadística aplicada y
Estadística teórica o Cálculo de Probabilidades (y tales 1 ineas son siempre imprecisas),
digamos que la Estadística aplicada es el estudio en la realidad de resultados adquiri-
dos en lo abstracto por el modelo que constituye el Cálculo de probabilidades. Ciencia
crítica de resultados experimentales, la Estad ística aplicada no puede conservar la
existencia de una infinidad de tales resultados, mientras que, por el contrario, el objeto
del pensamienta (lógico), que es la Estadística teórica, puede perfectamente admitirlos
en sus razonamientas." (1)
El problema que aquí suscitamos será replanteado más tarde, pues está ligado
a distintas farmas de convergencia: e1 estadístico aplicado empleará primordialmente
la canvergencia en probabilidad, corno señala el propio Dugué, mientras que el proba-
bilista, se ceñirá de rnodo especial a la noción de estabilidad ergódica que es la "con-
vergencia casi cierta".

El Cálculo de probabilidad, por cuanto impregna todo el razonamiento in-


ductivo estadístico, se nos presenta como un últil de difícil y delicado manejo. "A me-
dida clue la Estadística prueba su utilidad y se impone en los más diversos dominios
-advirtió el Papa a los Estadísticos---, se ponen de manifiesto las díficultades de su
carrecta utilización y los escollos a los que se exponen los que manejan el azar, y,
ante todo, lo delicadfl aue es fijar exactamente el hecho preciso que servirá de base a
las investigaciones. Aislar los d.iferentes factores en los que se desea examinar su pa-
pel causal, es asi como se prueban las cualidades profesionales del Estadístico y la
necesidad de rnétodos precisos" (2)

Canvendrá, ,pues, detenernos un rnomento para contemplar sucintamente la


lógica de la probabilidad.

^.-- L(.^GIC,,A PROBABILISTIGA Y LUGIC;A E^TADIS^TIG^A.

La característico de la Lógica clásica, o Lógica de dos valares, consistió en


el principio del "tertíum non datur", según el cual entre el ser y el no ser, el sí y el nó,
la afirmación y la negación, "no hay término medio".
Una primera negación de este principio se observa en el ejemplo siguiente.
Consideremos dos sucesos .S y S: Podemos apostar sobre S condicionando nuestra
apuesta al resultado de S'. Si ocurre S' se gana o se pierde, pero si no ocurre, se anula
la apuesta. El suceso S condicionada a S' es, pues, una entidad lógica que puede tener
tres valores : verdad, si S y S' son verdaderos; falsedad, si S' es cierto y S falso;

(1 ) D. Dugué: Traité de Statisrtique Theorique et Apliqués-M^ssons et Comp. 1958

(2 ) Sesión 22 del I. I. Ested istica.


nulidaci, si S' es falso. Basados en los sucesos condicionados, se puede, pues, elaborar
una lógica trivalente.
Ya algunos filósofos habian puesto en tela de juicio el principia del "tertium
non datur". De nuestro Luis Vives escribió Menéndez y Pelayo lo siguiente :"Su senti-
do de la probabilidad era el de los antiguos Académicos, combinado con la teoría de
ía "epagoge" o inducción socrática, que él amplió hasta convertirla en la inducción
moderna. De esos procedimientos modestos y desdeñados, de las verosimilitudes, con-
jeturas e hipótesis, de aquellos raZOnamientos que sin aspirar a la certeza ni a la evi-
dencia, se contentan con ser más veros ímiles que los argumentos contrarios, esperaba
el filósofo valenciano el futuro progreso de las ciencias, mucho más que de la esgrima
escolástica o del ejercicio de la disputa. (1)
Kant, continuador, en este aspecto, de Vives, introduce y articula ya de un
modo expreso y razonado, ese "término rnedio" en su sistema lóg,ico y Hegel inter-
cala, de modo claro, entre el ser y na ser el devenir o llegar a ser. El paso de la "lógica
bivalente" a la "plurivalente" abrió el camino de la "lógica probabilistica".
Hoy se postula por distintos autores, principalmente de la escuela subjeti-
vista, la necesidad de confrontar la diversidad de posibilidades del mundo real con
una "lógica continua".
"Desde el punto de vista lógico --escribe Bruno de Finetti-, la teoría de la
probabilidad sería solamente una lógica polivalente en una escala de modalidades
continua, superpuesta sobre una lógica de dos valores. Esto equivale a decir que, para
cada suceso, se admiten sóla dos resultados (tres para sucesos condicionales), pero que
sólo tiene un significado formal; la infinidad de modalidades intermedias, no se en-
frenta, a este respecto, a la insuficiencia de la lógica de dos valores, sin o que sirve
únicamente para medir nuestra duda cuando aún no sabemos cuál de las dos modali-
dades adjetivas es correcta" (2). En sendos trabajos (publicados en "Comptes Rendus
Soc.Sci.Lett. Varsovie", CIII, Vol. XXIII y XXV, 1930), J. LukasiewieZ y S. Mazurkie-
wiez, mantienen la tesis de una lógica de escala de modalidades continua, pero sin es-
tar concebida como superpuesta sobre una lógica de dos valores, como quiere De
Finetti. En su trabajo "La théorie des probabilités est-elle une logique generalisé? "
(3), J. Hosiasson hace una crítica profunda de este aspecto debatido por los partida-
rios de la lógica continua.
Así como la lógica clásica es el instrumento necesario de todo razonamiento
en que sólo hay dos alternativas para cada suceso, ocurrir o no ocurrir, así también
la lógica de lo probable, la lógica de una escala continua de valores, es el instrumento

(1) M. Menéndez y Pelayo: Oiscurso de recepción en la real Aca+clemia de Cíencias Moreles y


Pol ítices, pág. 148.
(2) B. de Finetti: La Previsión, ses lois, ses sources subjetives- An. de I`Institut Poincaré, Vol. 7,
1937.
(3) Actes du Congrés In. de Phil. Scientifique, Vol. IV, 1935.
necesario de todo razonamiento en que entra, visible u ocultamente, un grado de duda,
un juicio de certeza o de posibilidad práctica, o, finalrnente, una estimación de la
verosimilitud de un acontecimiento cualquiera. Todo lo que no sea un hecho histó-
ricamente cierto, lo que constituya un consejo para el futuro, lo que no caiga bajo
las leyes implacables de la macrofísica, constituye un juicio de probabilidad, basado
en tos principios del Cálculo de probabilidades. En el Cálculo de Probabilidades se
funda, pues lo más importante de nuestro pensamiento, "sin él --diremos con Poin-
caré- la Ciencia sería imposible".

3.- DESAR^OLLO DE LA PRUBABILIDAD.

Desde muy pronto se dió cuenta la humanidad de que se encontraba frente


a das clases de fenómenos; los previsxbles, como la salida y puesta del sol, y los im-
previsibles, como el resultado de una batalla. La estabilidad de los primeros estimuló
su estudio; los otros fueron confiados al Horóscopo.
En otra parte de este número de la Revista se estudia profusamente el de-
senvolvimiento histórico de la Teoría de la Probabilidad. Anotemos dos particulari-
dades en este desa.rrollo : primero, su divorcio, hasta tiempos muy próximos a los
a^ctuales, del paralelo desenvolvimiento de la Estadística de los Aritméticos Políticos;
segundo, su orientación, después de Laplace, hacia las aplicaciones, y esto en distintos
sentidos: teoría de errores y método de los mínimos cuadrados que condujeron al
descubrimiento de la curva normal; matemática actuarial como aplicación de la proba-
bilidad a las estadísticas de mortalidad; biometría y sociometría; mecánica estadística
y genética.
En casnbio, los conceptos quedaron estancados. Todo el cálculo probabilísti-
co se basó en la defnición de Laplace cuya endeblez, a pesar de las mejoras introduci-
das por Bertrand y Poincaré, la hace insuficiente para elaborar sobre ella una teo-
ría cientí^ca de la probabilidad.
Entonces las investigaciones se dirigieron a considerar la estabilidad de las
frecuencias relativas como modelo empírico de la probabilidad matemática. Como
consecuencia del Formalismo, implantado a principios de siglo por Hilbert, otra ten-
dencia ha sido la axiomatización : la Probabilidad será una función matemática de
una cierta clase, un término indefinido dentro de un sistema formal. Pero cuando
queremos aplicar el modelo formal al mundo real, cuando hablaxnos acerca de la
probabilidad de ciertos espec íficos sucesos o de cierta clase de sucesos, o cuando
tomamos la probabilidad como norma en las decisiones de la vida, nos vemos obli-
gadas a pensar con rnás precisión sobre la noción misma de probabilidad. Debemos
procurar encontrar alguna conexión entre esta entidad abstracta, que satisface ciertas
estipulaciones matemáticas, y el contenido pragmático,el significado real de la palabra
probabilidad y sus sinónimos en el lenguaje ordinario de las ciencias, de 1os negocios
y de los medios de comunicación escritos y hablados. Han sido dados varios tipos de
conexión: la frecuencialista o empírica, la lógica y la subjetiva, son las más irnpor-
tantes. De cada una de estas doctrinas nos ocuparemos a continuación, asi corno del
método axiomático.
Good (1), propone cuatro tipos de medidas para clasificar las tearías sobre
la probabilidad:
l.- La teoría puede depender o no de un sistema a^ciomático.
2.-- La probabilidad puede ser o no "objetiva", en el sentido de que puede
suponerse o no que exista, independientemente de las apreciaciones
particulares de los individuos.
3.-- La teoría puede ser frecuencialista o apoyarse en los grados de creen-
cia.
4.- La probabilidad puede ser asociada o nó a un número.

4.- INTERPRETACION LOGICISTA.

La interpretación logicista de la probabilidad consiste en considerarla como


una relación lágica entre una proposición y un cuerpo de doctrina, entre una aser-
ción y otra aserción o un conjunto de aserciones que presentan la evidencia. De
acuerdo con esta interpretación, decir que la probabilidad de A, basados en la evi-
dencia de B, es 2/3, es muy parecido a decir que la proposición S está irnplicada en
sus dos terceras partes en la S'• Leonard Savage llama a esta interpretación necesaria,
"porque, según ella, la probabilidad de A, basada en la evidencia de B, es una nece-
sidad lógica, deducida de la estructura lógica de las proposiciones. A y B".
El primero en formular explícitamente la interpretación lógica de la proba-
bilidad fué John Maynard Keynes, en 1921. Es siernpre posible, dice, deducir una
proposición desconocida de otra conocida con un grado de certeza pasanda de la
ignorancia completa a la certeza absoluta. El grado de creencia racional represent a
la confianza que es razonable depositar en la deducción que nos lleva del conjunto
de proposiciones conocidas a las desconocidas. Un grado de creencia racion.al debe
ser interpretado siempre par comparación con un cuerpo de evidencia. En el cap í-
tulo III de su libro, Keynes, aborda el tema de si todas las probabilidades son me-
dibles. La conclusión a que llega, es, que no es posible cuantificar todas las probabili-
dades a causa de las múltiples dimensioñes que es preciso considerar, el evaluar algu-
nas de ellas, que no pueden ser ponderadas según un patrón común. No es posible,
pues, determinar si una conclusión es más probable que otra y, por consiguiente, la
probabilidad de tales conclusiones, no pueden situarse sobre una escala numéñca.

(1) I.J. Good. Probebility ^nd the Weighing of Evidence. Hafnern New York.
Una afirmacíón en términos de probabilidad es lvgrcamente cierta, si es cierta en su
totalidad; de lo contrario, es lógicamente falsa. Las afirmaciones en términos de pro-
babil^dad son puramente formales, lo rnisrno que las de la aritmética. Dada una afirma-
ción A y un cuerpo de evidencia B, hay uno y sólamente un número real p, com-
prendido entre cero y uno, tal que puede afirmarse correctamente que la probabilidad
de A relativa a B es p.
Rudolf Carnap defendió en parte esta doctrina ( 1). Se sitúa entre el punto de
vista de la probab' ' dad corno relación lógica objetiva entre proposiciones, mantenido
por Keynes y Jeffreys, y la posición frecuentalista. Carnap dice que los desacuerdos
entre estas das escuelas proviene de falsa interpretación, pero que no se trata de con-
ceptos distintos. Carnap llama al primer concepto prababilidad 1 y al segundo pro-
babilidad ^ . El puente entre los dos puede echarse, de algún modo, can enunciados
corna éste, debida al propio Carnap: "El valor de la prababilidad 1 de varias hipótesis,
puede ser interpretado como la estimación de la frecuencia relativa de la certeza entre
ellas" (2).
Otro representante de esta escuela es Harold .Ieffreys Su libro "Theory of
Probability" (3 ) es una de las mayores contribuciones a la teor ía de Ia probabilidad,
interpretada como grado de creencia probable. En la pág. 62 dice, en resuxnen: Es
sólo casi siempre cierto -es decir, cierto con probabilidad uno-- que las caras de una
moneda ideal, carente de sesgo, tienden a una frecuencia relativa de 1/2. Por lo tanto,
si la frecuencia relativa de 1/2 es utilizada para def nir el concepto de probabilidad,
en tal definición se recurre a la probabilidad para definir la probabilidad. Por otra
parte, no caemos en este círculo vicioso sí afirmamos que lo más racional que se puede
extraer, del hecho de lanzar una moneda perfecta, es asignar a la obtención de un
resultado deterrninado, un grado de creencia de 1/2.
Luego veremo^s algunas de las críticas que se han hecho a la doctrina logi-
cista.

5. -- INTERPRET'A CI ON FR.EC UENCIA LIS TA.

La interpretación frecuencialista o empírica de la probabilidad se presenta


de varias maneras. El primero en formularla fué Venn, luego von Mises y, más tarde,
Reichenbach. La idea básica es identif car la probabilidad con el límite de un fre-
cuencia relativa.
John Venn (4) presenta e1 caso de un hombre situado sobre la arena de 1a
playa en un día de niebla densisima; las olas vienen amenazadoras sobre él y está

(1 ) R. Carnap: Logicel Foundetions of Probability. Univ. of Chicago Press, 1950.


(2) Ybid, póp. 72.
(3) H. Jeffreya: Theory of Probabílíty. Clarendon Press, 3° ed., 196^.
(4^ J. Venn: l.o^ic of Chanc®. Mac Millen, Londres, 1888.
persuadido de que si cae en ellas perecerá. oye el toque de una carnpana de i;glesia
pero no sabe si proviene del misma lado del agua o del opuesto, de suerte que al
dejarse guiar por su sonido no sabe si se precipita en la corriente o, por el contrario,
gana tierra firrne. El suceso no adamite evidentemente repetición y las casos son igual-
mente posibles para él. ^,No es, en tal caso, su perspectiva de perecer igual a 1/2?.
"Un análisis adecuado de su estado de espíritu -dice textualmente Venn- sería una
investigación psicológica más bien que lógica... Pero de acuerdo con la mejor intros-
pección que puede hacer, yo díría que lo que realmente pasa por el espíritu, en tales
casos, es algo como esto: En las situaciones y circunstancias de más vacilación, esta-
mos acostumbrados a decidú nuestro comportamiento por la consideración de las
ventajas y desventajas de cada parte, esta es, por la frecuenciu observada o inferida
con que una u otra alternativa se ha presentado. En la proporción en que éstas se hacen
más equilibradas, estamos más frecuentemente equivocados en los casos individuales;
esto es, se llegaría más y más cerca de lo que podría llamarse un "cara o cruz" sí
estamos en lo cierto o en lo erróneo. El caso en cuestión parece simplemente eI caso
límite en el que se ha imaginado que no hay ninguna diferencia apreciable entre las a1-
ternativas en las que basar la elección de una u otra y, en consecuencia, no hay con-
fianza en un resultado particular... Este ejemplo sirve para presentar un punto que
ha sido ya mencionado..., a saber, que todo aquello que discurre como probabilidad,
es la frecuencia estadistica de un suceso, o, si preferimos ponerlo asi, la cantidad de
creencia con la que cada uno de estos sucesos será considerada individualmente, pero
que deja depender de esta freeuencia la conducta subsiguiente, o aquella creeencia
para la elección de causas" (1).
Estas ideas de Venn fueron, en rea.lidad una reacción contra las de De Mor-
gan, Donkin y otros contemporáneos, quienes "declaran o reconocen que nosotros
somos distintamente conscientes de una cierta variación de la cantidad de nuestra
creencia, y c}ue este estado de nuestro espíritu puede ser medido y deterrninado con
casi la misma exactitud que los sucesos externos a los que ellos se refieren," en ex-
presión del propio Venn (2).
El libro de Venn data de 1888. Mucho rnás tarde, en 1919, Richard von
Mises publicó su tibro "Probability, Statistics and Truth" (3). Mantiene la tesis de que
el concepto de probabilidad debe ser aplicado únicarnente a conjuntos de sucesos
-colectivos, según su nomenclatura-- que satisfacen la condición de aleatorYdad y en
los cuales la tendencia a converger hacia un parámetro determinado de las frecuencias
relativas, es vbservable.
La definición de colectivo de von Mises es la siguiente:

(1) J.Venn: of Chance, Mac lVlillan, Londres, 1888.


(2) Ibid, cap 111, 4.
(3 ^ La última edición, preparada por Hilda Geirin^er, date de 1965 y Ileva por tftulo: Matheme-
tical Theory of Probabil ity and Statístics. Acad. Press.

1l1
" Sea S ^(a^) un conjunto discreto ordenado y K =(x^) una sucesión de ele-
mcntos de S. Sea G una familia de elecciones numerable. supanemos que

1) Para todo elemento a^ existe el límite pi frecuencial en 1^;


2) Para todo elemento de S se verifica pi = 1;
3) Toda seiección g perteneciente a G y aplicada a K produce una suce-
sión parcial de K en la cual, para todo ai existe aún e1 límite frecuencial y éste
es igual a pi .
Entonces, ^c,.', o más explicitarnente K(G,S), es llamado colectivo, con res-
pecta a G y S, y p(ai J^ pi es la prababilidad de obtener el elemento ai en K" (1).
Numerosas objecciones se pusieron a esta defulición, como se reconoce en el
libro que comentamos:" Se ha dicho que no hay pruebas de que el concepto no sea
un concepto vacío, ni libre de contradicciones; que la restricción que establece nuestra
noción de aleatoriedad es demasiado severa, o no su%cientemente severa, etc. En los
años pasados, principalmente entre 1925--40, estas cuestiones fueron ámpliamente
discutidas y obtenidos resultados decisivos, probablemente desconocidos por muchos
estudiantes de hoy, quienes, a menuda, sin conocer la teoría frecuencial^sta, del ca-
lectivo, siguen 1a moda corriente" (2).
El nudo Gordiano de la cuestirín es que muchos autores, supuesta la equi-
probabí^idad de los casos posibles, confiaron en el principio de razón suficiente en
vez de hacerlo en el conjunto de abservaciones iniciales. Von Mises criticó agudamente
esta confianza en el principio de razón suf'iciente, la cual se extiende a situaciones
de ignorancia subjetiva, mientras que su definición, lirnita el concepto de probabilidad
a colectivos con frecuencias relativas cuya convergencia es observable.
La posición frecuencialista sería, pues, aceptable si fuera posible establecer
ernpíricamente una sútil separación entre ^onjuntos de sucesos f`^sicas, por un Iado,
que aparecerian ante toda persona inteligente como los hipotéticas obtenidos por
una moneda ideal y aquéllos que no obligan al decisor a usar de esta analogía. Ade-
más, había de ser un rasgo observable en t©das las personas prácticamente inteligen-
tes, el hecho de que, mientras su grados de creencia son susceptibles de ser interpre-
tados probab' " ticarnente, cuando pertenecen al primer grupo, no lo son cuando perte-
necen a1 segundo. ^
En realidad no se satisfacen ninguna de estas cantliciones. Desde los fenóme-
nos aleatorios, análogos a los que resultan de lanzar un dado perfecto o extraer bolas
de una urna, hasta lo^s que intervíenen en la ciencia del Seguro, hay una gama cuya
divisoria, en los dos grupos mencionados, es difícil de detern ^nar. Por otra parte,
gran núrnero de persanas inteligentes se sienten impulsadas a aplicar las reglas de la

l^ ) op. cit., peg. ^ a.


(2) Ibid.. pag. 40.
probabilidad a todos Io^ sucesos aleatorias, sin distinción alguna. Las bases de la teo-
ría frecuencialista son, pues, débiles.
Adoptada la posición frecuencialista, la mayor parte de las incertidumbres
que afectan a la ciencia y demás dominios de aplicación de la Estadística no pueden
ser medidos por probabilidades. Von Mises combatió esta afirmación en su trabajo
"The Corréct Use of Bayes Formula" ( 1), pero es evidente que un frecuencialista
no puede aplicar los resultados de una investigación para calcular probabilidades acerca
de proposiciones inciertas sornetidas a estudio. Esto supone cortarse las alas siempre
que se trate de utilizar la fórmula de Bayes para el cálculo de probabilidades a pos-
teriori, ya que se encuentra sin medios para calcular las probabilidades a priori.
"La natural inclinación que uno tiene a preguntar, í,qué grado de convicción
me autorizan a tener estos nuevos datos? , de ordinario suele ser, y ha sido, conside-
rada - dice Savage -- como una cuestión sin sentido por los frecuencialistas. El fre-
cuencialista es requerido, por tanto, a tener un concepto de la evidencia, y de la
reacción a la evidencia, distinto del concepto primítivo o natural que es adecuado para
la aplicación del teorema de Bayes" (2).
Estas observaciones pueden dirigirse a todos los frecuencialistas en general,
pero la teoría frecuencialista ha sido expuesta con toda una gama de matices distintos,
desde Venn y von Mises hasta R.A. Fisher, Herzy Neyman, Harold Cramer y Egon
Pearson.
Bra.ithwaite, por ejemplo, en su libro "Scientific Explanation" (3), presenta
un modelo conceptual en el que la probabilidad de la relación del suceso A al B
es un parámetro de1 modelo, el cual se acepta o se rechaza de acuerdo con las ob-
servaciones llevadas a cabo sobre A y B. Estas observaciones pueden ser el resulta-
do de un experimento, por ejemplo extracción de muestras, llevado a cabo de acuerdo
con las leyes lógicas que determinan el modelo.
Toda la teoría del contra^ste de h.ipótesis de Neyman y de la escuela de
estadísticos angloamericanos, no se separa mucho, en el fondo, de esta concepcián
de Braithwaite, aunque adopte una forma rnenos explícita. Para éstos, una afirrnación
en términos de probabilidad sólo puede ser una hipótesis estadística, siempre basada
en una evidencia observada.
Para saber si una afirmación en términos de probabilidad es o no cierta,
debemos realizar una investigación empírica y ésta, ordinariamente, sera una investi-
gación no limitada, de aquéllas cuyos resultados caen sólo dentro de lo probable .
Esto implica negar que las afirmaciones probabil ísticas pueden ser interpretadas ern-
píricarnente.

(1) Annels of Math. Statistics, n^ 13, 156, 1942,


(2i L. Sava^ge: The Foundations of Statistics Reconsider®ci. Univ. of California Prsss, 2, 1961.
(3) Cambridge Univ. Presa, 1963, cep. V, V 1 y V I i
A pesar de todo, la interpretacián frecuencialista tiene^ aún hoy muchos
adeptos. Estimamc^s que esto es debido principalmente a estas tres razones:
1° La teoría frecuencialista da a ia probabilidad un sentido análogo al de
"proporcián" y esto es muy corriente en el lenguaje ordinario. Así decimos que hay
una probabilidad 3/4 de encontrar a un individuo en su despacho, si acude a él tres
días sobre cuatro.
^° Si partimos del Cálculo de Probabilidades, como rama específica de las
matemáticas, y queremos contrastarlo con eI mundo real y ver la consistencia de
ios axiomas, Ia controversia es menor que con otras doctrinas.
3°- Incluso cuando partimos de rnodelos matemáticos puros y queremos in-
terpretarlos a la luz de Ia ciencia, según el modo que expusimos del método cienti-
fico, la interpretación estadística es más fácil con la doctrina frecuencialista.
Podemos, pues, concluir del modo siguiente : En sucesos engendrados por
procesos en los que se observa una gran analog,ía con los que resultan de lanzar una
moneda ideal, todos los individuos razonables tienden a aplicar, en sus decisiones,
pesos que satisfacen las leyes de la teoria de la probabilidad, lo cual implica que
tienden a atribuir tales pesos a los sucesos "simples" engendrados por tales eventos.
Los valares numéricos de las probabilidades en cuestión, son valores límites de las
frecuencias relativas. En esto parece que todos los autores están de acuerdo. Pero
^cómo atribuir pesos a Ias decisiones aplicadas a sucesos no engendrados por procesos
corno los anteriores? ^Satisfacen, en estos casos, los pesos de decisión las reglas de
teoría de la probabilidad?

6. -- I^Y^E.RPRE 7'A CIO.N S LT.BJE ^l I'IS 3^A.

Para los subjetivistas, la probabilidad representa, como para los logicistas,


una relación entre una aserción y un cuerpo de evidencia, pero esta relación no
es puramente lógica... Es lo que podriamos llamar una relación casi lógica y el
número que le es asignado representa el grado de creencia. Este número no está
urúvocamente determinado: dada una aserción, puede asignársele cualquier probabi-
lidad entre cero y uno, sobre un cuerpo de evidencia, de acuerdo con los grados de
creencia de la persona que hace dicha asignación, En particular, si hay afirmación
absoluta o negacián absoluta de la evidencia, son aplicables los criterios de la lógica
clásica de dos valores. En el resto de los casos, la probabilidad subjetiva postula una
lógica polivalente o, mejor, una lógica de escala continua.
La persona sujeto debe ser consistente en el sentido lógico de la palabra:
si hay una evidencia lógica de que ocurra el suceso S(entendiendo por suceso todo
hecho o asercíón), debe haber eI máacimo grada de confanza en S: si ia evidencia
entrai'ía la negación de S, habrá que poner en S el mínimo grado de confianza. Pero

114
además de esto, que es común a la interpretación logicista de la probabilidad, la
interpretación subjetivista da un paso más : los motivos de credibílidad de la persona,
considerada como un todo, han de ser, no sálo consistentes, sino tambien coherentes.
La teoría es subjetivista en el sentido de que una persona puede tener un grado de
creencia cualquiera con respecto a cualquier afirmación y en cualquíer tipo de evi-
dencia, con tal de que sus otras gradas de creencia tengan valores adecuados. Es
sólo en este sentido que una teoría es subjetivista.
Tanto en la interpretación empírica como en la logicista, sálo puede asig-
narse un grado de probabilidad a un suceso de una cierta clase, en un conjunto de suce-
sos dado, o a una aserción relativa a un cuerpo de evidencia determinado. En la inter-
pretación subjetivista nos encontramos con estas dos peculiaridades: 1° se permite
cualquier grado de creencia en cualquier aserción o suceso; 2° hay restricciones im-
puestas a la distribución de grados de creencia entre conjuntas que están relacionados
entre sí.
Las distribuciones de grados de creencia na son todas admisibles en la in-
terpretación subjetivista. Supongamos que una persona analiza sus grados de creencia
y los halla incoherentes. Entonces, deseosa de proceder con lógica y llevar a cabo sus
deseos, procurará eliminar dicha incoherencia. El modo de hacerlo es un asunto to-
talmente personal. Algunas de sus opiniones, que luego han de transformarse en asig-
naciones de prababilidad, deben ser modificadas, pero esta modificación no ha de
ser dictada par ninguna regla externa, ni en su esencia ni en el modo. Toda opinión
que se considera acertada podrá ser mantenida, mediante la adecuada modificación de
las demás.
Dada una aserción cualquiera S, si una persona deposita en ella un grado de
creencia p, en la aserción contraria (la que niega S) depositaría un grado de con-
fianza igual a 1-p. Para medir los grados de creencia los subjetivistas han introducido,
con Borel a la cabeza, el método de la apuesta, que consiste en determinar la cantidad
máxima que se está dispuesto a apostar en favor de la verdad de una aserción. Decir,
pues, que la probabilidad de S es 1/3 quiere decir que se está dispuesto a apostar
uno contra dos a favor de su certeza. Si fuera también 1/3 la probabilidad de la
negación de S habría dos apuestas: una de 1 contra ? a favor de S y otra de 1
contra 2 a favor de la aserción o del hecho contraria. Sería perder en ambas condicio-
nes y, en consecuencia, portarse incoherente. Por eso heinos eliminado de la teoría
subjetivista los grados de creencia incoherentes.
La noción de "grado de creencia o de confianza" se encuentra, por primera
vez, en el "Ars Conjectandi" de Bernouilli. Puesto que no podemos saber con cer-
teza si un suceso va a ocurrir o no, debemos conformarnos con un "grado de
conf anza" en la proposición que afirrna que ocurrirá. Este grado de con^anza de-
pende del conocimiento de que dispone cada individuo, varía de uno a otro y viene
identificado a la probabilidad de un suceso. Augusto De Morgan, contra el que ane-
metió tan duramente John Venn, escribe en su "Formal Logic", en 1847: "Por grado
de probabilidad entendemos, o debemos entender, grado de creencia... La probabi-
lidad entonces se refiere a creencia e irnplica creencia, más o menos, y creencia no
es más que atro nombre del conocimiento imperfecto" (1).
Toda la obra de Keynes está basada, como vimos, en el concepto de proba-
bilidad como grado de creencia racional. La probabilidad, según él, expresa una rela-
ción entre un conjunto de proposiciones desconocido y otro conocido. Es siempre
posible dedueir las proposiciones desconocidas de Ias conocidas con un grado de
certeza, desde la iganorancia absoluta a la certeza absoluta. Pero así como De Morgan
afirma que los grados de creencia son medibles cuantitativamente, Keynes opina lo
contrario.
Tras largas discusiones, llevadas a cabo p ^or estos primeros pioneros, la pro-
babilidad subjetiva cuenta hoy con una acreditada escuela de maestros entre los que
cabe destacar, como principales forjadores, a1 inglés Frank R:amsey,al italiano Bruno
de Finetti y a1 americano Leonard Savage.
p:amsey murió prematuramente, a los 26 años, en 1930. Su obra postuma
"The Foundations of IVlathematics and other Logical Essay" fué editada par Braith-
waite y contiene, entre otros, el ensayo titulado "Truth and Probability", escrito
en i92b. Presenta una teoría operacional de la elección, basada en el concepto de
probabil.idad subjetiva y en el principio de ma^cimización de la utilidad esperada.
Distingue entre utilidad de pagos y"tendencia o repugnancia a apostar", atribuyendo
esto último a estírnulos de gozo o aversión, respectivarnente. Ramsey fué un precur-
scar de von Neurnann y Morgenstern. Según Emilio Borel (2), Rarnsey pensó que el
úrúco modo de medir correctamente los grados de creencia de una persona, es exa-
rninar su patente conducta, por ejemplo la apuesta que está dispuesta a hacer sobre
la posibilidad de que ocurra un suceso. La identificación de grados de creencia con
la adopción de determinado tipo de conducta, ha sido corriente en algunos subje-
tivistas.

A Bruno de Finetti le hemos citado ya repetidamente. Desarrolló con todo


detalle el concepto de probabilidad subjetiva, posteriormente a Ramey y con .inde-
pendencia de él. Ha sido el gran divulgador de la teoría en diversas y profundas pu-
blicaciones, entre las que cabe destacar "La Prévision: ses lois logiques, ses sources
subjectives" (3). otro interesante y más reciente trabajo es el titulado "La proba-
bilitá e la statistica nei rapporti con 1`induzione, secondo i diversi punti di vista"( 4) .
De Finetti introdujo el importante concepto de sucesos intercambiables, a
los que en sus primeros trabajos llamaba equivalentes. Con esto la probabilidad sub-
jetiva dejó de ser una curiosidad filosófica para conectarse con la inferencia esta-

(1 } F ormal Logic, pag. 17 3.


(2} E. Borel: Valeur pra^tique et philosophie des probabilités. Rev. philosophique, 19Z4.
(3) Ann. 1ns. Poincaré, Voi. 7, pag. 1-68, 1937.
14} Induzione e statistica, Rome, instituto Mat. dell' Universtá, 19fi9.
dística clásica. Este concepto, el de consistencia y el de coherencia, forrrian los tres
pilares de la teor^ía subjetivista de la probabilidad. De su estudio se han acupado,
con De Finetti, Kintchine ( 1), Hewit y Savage {2).
Podernos defirúr los sucesos intercambiables camo aquellos que ocurren de
modo aleatorio en una sucesión de pruebas y tales que el orden en que ocurren
no afecta a las probabilidades que deseamos ca.lcular. En "Gli eventi equivalenti e
il caso degenere" ( 3), De Finetti anota: "Se trata, en substancia, de lo que de ordi-
nario se llama sucesos independientes con probabilidad constante pero desconocida".
Supongamos, para aclarar este concepto, que se trata de extraer bolas de una urna
cuya composición es desconocida y con reemplazamiento. Para un objetivista, los
sucesos son independientes y equiprobables. En cambio, la probabilidad que ur^ sub-
jetivista asigna a que salga blanca en la prueba i-ésima, depende del color que haya
observado en las pruebas precedentes. Se trata de una probabilidad condicional. Pues
bxen, estos sucesos, que son indepertdientes para el objetivista, son r'ntercarnbíables
(o equivalentes) para el subjetivista.
De un modo más formal: 5i asignamos el valor Xl a la prueba i y llama-
mos P(XjJ a la probabilidad correspondiente y P( Xi / Xj 1;..., Xjyn J a la pro-
babilidad condicíonal de Xj en el supuesto de que resulte X• en la prueba j,.. •, Xn
^
en la prueba n, para un objetivista habrá independencia y equiprobabilidad si se
verifica P(XíJ -^ P(Xi / Xj ,..., XnJ, para todos los índices distintos (j 1,..., ^n).
Para un subjetivista, habrá intercambiabilidad. Y la habrá, además, aunque no se
cumpla la igualdad anterior, si se verifica una o ambas de las relaciones siguientes:

P(x^J=P(^jJ

P( Xi / Xjl ,...,Xjn j- P(X^/Xk1,...,XknJ,

para todo conjunto de indices distintos ( jl ,..., jn J y(. k^ ,..., J, siempre


que existan las probabilidades condicionantes para dichos conjuntos de índices.
Bernard O. Koopman publicó en 1940, un trabajo titulado "^he Bases of
Probability" (4), y casi simultáneamente, otros dos "The axioms and algebra of
intuitive probability" (S) y"Intuitive probability and sequences" (6). La obra de
Koopman está inspirada en la de Keynes y en la de De Finetti. Conserva la noción

{1 ) Sur les classes d'événernents équivatents. Recueii Math. Moscou, 39, 1932.
{2) Symetric Measures on Cartesian Products. Transac. Math. Soc., 80, 1955.
{3) Istituti Italiano degli Attuari, 1952, pag. 1.
(4) Bull. of the Ar^ner. Math. Society, 46, 1940.
(5i Ann. of Math., 41, peg. 269, 1940.
(6) Ibid.
intuitiva de grados de creencia y las probabilidades que intraduce no son susceptibles
de una ordenación. Para Koopman, decir que un suceso, o una aserción cualquiera
S no es más probable que otro T y que T no es más probable que S, no significa
que ambos tiene^ la misma probabilidad. Esto parece dar a entender que en nues-
tras opiniones falta orden. Kaopman llama a las proposiciones a las que se puede
asignaz una probabilidad, proposiciones "contemptadas" y añade que si alguna de
estas proposicianes se puede verificar experimentalrnente, pertenece a una subclase
de proposiciones contempladas que puede denominarse "proposiciones experimenta-
les". La axiomática que propugna para introducir el concepto de probabilidad no
cae dentro de la línea seguida por Ramsey, De Finetti y Savage.
Otro gan tratadista de la probabilidad, dentro de la nueva orientación,
es, corno ya hemos indicado, Leonard J. Savage. En su libro "T'he Foundations of
Statistics" (1), publicado en 1954, dice que en vez de tomar la probabilidad como
concepto básico, debemos dar varios pasos atrás y suponer que un indi.viduo procede
de acuerdo con la verificación de ciertos a^ciomas de modo que puede probarse que
existe una función de probabilidad personal para cada individuo. Para Savage, todas las
probabilidades son personales. En su trabajo "The Foundations of Statistics Recon-
sidered" (2}, escribe :"La reciprocidad de ideas entre el objetivismo y el subjetivismo
en Estadistica, es interesante y algunas veces confuso. Ya que los frecuencialistas
discuten ordinariarnente y creen que están en posesión de una ciase de probabiiidad
objetiva, y ya que los personalistas afirman que la probabilidad es una cantidad
subjetiva, parece natural llamar a los frecuencialistas objetivistas y a los personalistas,
subjetivistas. Yo ^nismo he sucumbido a esta tentación, pero es deplorable, pues los
frecuencialistas se aproximan más a lo subjetivo que nosotros los bayesianos", Y
continúa en la pag. 9: "Nosotros los bayesianas radicales, pretendemos demostrar
que todo lo que tiene de atractivo la teoría frecuencialista de la probabilidad, está
implícito en la teoria personalista... A rní juicio, Good y yo estuvimos demasiado
influidos por 1a tradición frecuencialista -él mucho menos que yo- para hacer un
remiendo perfecto", Volveremos al pensamiento de Savage al hablar del bayesismo.
4bligado es citar, antes de los modernos tratadistas de la Teoría de 1a deci-
sión, a un autor cuyo pensamiento ha señalado un hito importante en el desarrollo
de la teoria subjetivista. Nos referimos a Good, autor al que alude Savage. En 195Q
publicó un pequeño tratado titulado "Probability and Weighing of Evidence"(3). De
acuerdo con la clasificación que él mismo propone, y a la que ya nos hemos referido
más arriba, el concepto que desarrolla de la probabilidad es axiomático, subjetivo, ba-
sado en los grados de creencia -y no en las frecuencias relativas-- y no nurnérico. Gaod
piensa que lo más que pueden discernir los ind.ividuos respecto a la probabilidad, es

(1) John Wiley, 1954.


t2) Univ. of Caiifornia Press, 1961.
{3) Londres, Charles Griffin and Co., 1950.
que, la correspondiente a un suceso, es mayor o menor que la correspondiente a
otro. Su teoría es, pues, próxima a la de Keynes y a la de Jeffreys.
Los estudios de estos distintos a ^tores constituyen la base y lo que podríamos
llamar" primera etapa de la Teoría de la decisión" y de la Estadística moderna. En
esta breve reseña se han recogido las ideas más sa.lientes de aquellos autores que han
tomado parte más activa en la cantroversia. Los nombres de Maurice Frechet, Emile
Borel, Jacob Marshak, Donald Davidson, Patrick Suppes, Frank Knight y E. L. Leh-
mann, deben ser añadidos a la lista anterior.

7. -- POSI CIQN SE1VII^PR UBABILISTA.

Willian Fellner acepta la concepción básica de la escuela subjetivista, pero


hace concesiones dado que "decisores razonables, cuando cantemplan un movimien-
to en el que intervienen probabilidades, pueden desarrollar un sistema mediante el
cuat introducen algo de su inestable y controvertida probabilidad subjetiva como
"freno" (o premio) en relación con las probabilidades del tipo Von Mises. No todos
las pesos de decisión, directarnente abservables, de tales individuos, necesitan satis-
facEr las reglas espec^ficas par las que son defirúdas probabilidades. Esto es importante
para reconocer que una persc^na razonable puede atribuir una determinada pérdida de
utiiidad al hecho de estar expuesta a una disminución de confianza debida a contro-
vertidos e inestables movimientos interiores." ( I) Y en la pag. 4 escribe: "El p ^ensa-
miento del escritor (de el mismo) acerca de problemas centrales de la Teoría de la
decisión puede ser descrita con enfoque serniprobabilístico. Con esto quiero decir
que en mi opinión los pesos directamente observables que individuos razonables y
equilibi^ados atribuyen a específicas clases de perspectivas, no son necesariamente las
genuinas probabilidades subjetivas de esas perspectivas, aunque estos pesos de decisión
de individuos razonables y equilibrados que actúan consistentemente, guardan una
comprensible relación con las probabilidades, esto es, con los pesas que satisfacen las
leyes de la teoría de la probabilidad".
Según Fellner, gran número de decisores ac túan de modo distinto, cuanda
están bajo la influencia de grados de creencia débiles, esto es, de probabilidades cuyo
valor numérico es altarnente inestable en su espíritu, o bajo la influencia de firmes
y estables grados de creencia. Los grados de creencia altarnente inestables están in-
fluenciados por lo que Fellner llarna "hipótesis elusivas". Una hipótesis, según dicha
autor, es una conjetura +que contribuye a la determinación de los juicios de proba-
bilidad de un individuo, relativos a sucesos. Si, en sus actos, el decisor está dispues-
to a fiarse en el efecto numérico de una hipótesis acerca de sus juicios de probabilidad
sobre sucesos, estas hipótesis son directas: las que no satisfacen esa condición son
elu.si vas.

(1) Probability and Profit, Richard D. Irving. Inc Illinois, 196b, p8g. 72.
8.- POSICIQNES NO ^ROBABILISTAS

Una posición que pudiéramos llamar n^ probabilista, y que es objeto hoy de


nurnerosas controversias, es la mantenida por el prof'esor G.L. Shackle, de la ^ lniver-
sidad de Líverpool, cvmo principal pionero, y algunos otros autores que comparten
más o menos su9 ideas. En su libro "Decisión, determinisme et temps" (1) Shackle
analiza, de una forma didáctica y filosófica a la vez, la oposición aparente entre
libertad de juicio y decisión y la probabilidad de previsión.
En su opinión la incertidumbre es algo subjetivo. El estado del pensamiento
consistente en el rechazo del espiritu, corresponde al sentimiento "ciertamente falso".
Pero pueden aparecer otros estados más o menos alejados de éste. Estos estados
pueden expresarse por los valores de una variable y estos valores hay que elegirlos
entre dos aspectos que esta variable es susceptible de tornar: la forma distributiva y
la forma no distributiva.
"Una variable de incertidumbre distributiva consiste en tomar el número uno
y hacerle corresponder la idea de "ciertamente verdadero". Si una respuesta consi-
derada como "ciertarnente verdadera" puede considerarse corno un agregado de partes,
donde cada parte es indispensable para expresar la totalidad y la exactitud de la res-
puesta, no se puede hacer corresponder a ninguna de esas partes, aisladamente, l.a
unidad como medida y cada una de ellas debe contentarse con la fraccíán conve-
niente. Pero, dado que el agregado de todas esas partes proporciona, por definició^,
una respuesta subjetivamente "completa" y"ciertamente verdadera," la lágica impone
que la suma de todas las fracciones sea igual a la unidad, y esta exigencia no admi-
te excepción sea cualquiera el número de partes y el que se quiera conceder a una
cualquiera de ellas, Luego el que el estado legal de una respuesta esté más o menos
alejado de la situacic^n de "ciertamente verdadera" o"ciertamente falso", es de na-
turaleza distinta según que se coloque uno en el caso de una variable de incertidum-
bre distributrva o en el de una variable de incertidumbre no distributiva "(2).
. Ahora bien, si se quiere recurrir a una variable de incertidumbre distributiva,
es preciso que la lista de respuestas c^nsiderada, sea a la vez especí ica y completa,
es decir, que cada respuesta halle • lugar dentro de un sistema o estructura y que no
haya ninguna hipótesis residual, como las definidas por la cláusula "otras respuestas".
La de asignar a estas hipótesís residuales, no especificadas, la parte de frecuencia
relativa o probabilidad correspondiente, es una de las afirmaciones más contundentes
de Shackle. "El error que denunciamos, dice, consiste en confundir el conocimiento
substanciat suministrado por un cuadro de frecuencias correspondiente a una expe-
ñencia divisible, con el hecho de asignar un grado, un estado o un juicio de distancia
con respecto a la certeza, a cada una de las alternativas de un cierto número de

(1) Dunad, ^967.


(2) llbid, pag. 84.
respuestas, en el caso de una experiencia no divisible. El error es el mismo que el
que se comete al no ver la diferencia que existe entre un puñado de té seco den-
tro de un bote y la marca exterior colocada fuera del bote indi:cando "calidad
extra" ... Cada evaluación de una variable de incertidumbre muestra cuán dificil
es acudir a una hipótesis particular como base de una experiencia que sólo se ha
realizado en la imaginación" (1 }.
En consecuencia la posición que una variable de incertidumbre distributiva
es capaz de representar, se sitúa entre los límites de lo "ciertamente falso" y lo
"ciertamente verdadero". En la práctica, añade, "el único ejemplo de variable de
incertidumbre que puede hallarse es dado por la probabilidad subjetiva a priori" (1)
Para Shackle son posibles numerosas clases de variables de incertidumbre no
distributivas. A1 valor extremo "ciertamente verdadero", contrapone, por ejemplo, el
de "perfectamente posible". Ante lo perfectamente posible no hay sorpresa, ante
lo absolutamente posible, sí, y en caso de realizarse habrYa el grado sumo de sorpresa.
Entre esos dos extremos hay grados de sorpresa a los que corresponden ^rados de
posibilidadf definidos por Shackle como "juicios subjetivos que, si son emitidos por
un cierto individua con respecto a sucesos bien precisos, lo proporcionaria, en el caso,
de sucesos que acaeciesen de hecho, estos diferentes grados de sarpresa. Tales juicios
pueden ser expresados en términos de sorpresa potencial, y existe, convenímos en ello,
una correspondencia biunívoca entre grados de posibilidad y grados de sorpresa po-
tencial; esta correspondencia siendo de tal naturaleza que a una sorpresa potencial
nula corresponde una posib' 'dad perfecta y a un máximo absoluto de sorpresa po-
tencial, una imposibilidad perfecta, siempre que estos juicios provengan de un in-
dividuo determinado" (1).
El concepto de sorpresa potencial, debido a Shackle, se ha pretendida asi-
milarlo al de probabilidad. El mismo Shackle advierte que la ex^p ^resión "perfecta-
mente posible" representa una idea rnuy alejada de la que expresa la expresión cier-
tamente verdadero," a la que carresponde en probabilidad el valor unitario. Se h.a-
ce luego esta pregunta: ,^Puede una probabilidad, inferior a la unidad, representar
la posibilidad perfecta? .
La "sorpresa potencial" es una rnedida de la posibilidad que tiene un in-
dividuo de alcanzar una experiencia por la imaginación. Fero esta experiencia está
"inhibida o aminarada por el sentimiento de duda, es decir, por la adaptación imper-
fecta de una situación imaginada, o de una cadena de situaciones, a lo que se sabe
de la naturaleza de los hechos y del ambiente" (1) . Esta es la razón por la que
Shalcke prescinde de la medida directa de la posibilidad y utiliza una rnedida de
descrédito, la cual "será nula cuando la posibilidad sea perfecta".
Resurniendo, podemos decir que Shalcke distingue dos clases de variables

(1 I Ibid, Pep 86. y 87.


de incertidumbre, las distributivas y las no distributivas. Entre las primeras sitúa la
probabilidad que, cuando es objetiva y se asienta en la observación, consiste en las
frecuencias relativas, pero ésta sólo se da cuando la experiencia es divisible, como
sucede en el cálculo actuarial. En los casos de incertidumbre no distributiva, la varia-
ble propuesta es la sorpresa potencial que, contrariamente a lo que sucede con la
probabilidad, permite distinguie y expresar diversos grados de posibilidad. Con res-
pecto a una experiencia ni divisible ni seriable, el sujeto decisor sólo puede responder
apelando a una probabilidad subjetiva, la cual no se apoya en ningún conocirniento,
ni en ninguna base matemática ni en níngún tipo de po^nderación, salvo si se trata
de una cuestión puramente formal.
Estas ideas de Shackle han dado lugar a numerosas discusiones en las que
no podemos entrar. Entre los principales polemistas citaremas al profesor .Tiirg Niehans
( I) el profesor 1^. Darfman (2), el profesor H.S. Houthakker y M. Nicholson (3 ).
Más recientemente, y a propósito de los axiomas prop}^estos por Shackle para su
concepto de sorpresa potencial, han tomado parte en la controversia los profesores
Cartewr (4), Pen (5} y Krelle (6) y el doctor Hamblin (7).

9. - LA INT'ERPRETA CION A^IOMA TICA.

En Ia interpretación axiomática, la probabílidad de un suceso se considera


como un núrnero asociado a dicho suceso, el cual posee ciertas propiedades funda-
mentales expresables por medio de axiomas. "La definición de probabilidad --dice
Cramer-- se da entonces de la siguiente forma: Una probabilidad es una cantidad
numérica que satisface tales y tales axiomas" (8).
Con esta interpretación la teoria de la probabilidad pasa a ser un capítulo
de la maternática general, aunque con contenido propio. Corrientemente al hablar
de interpretación axiomática nos referimos a la que adopta una base frecuencial,
como sucede con las axiomátícas hoy rnás en boga, pero la axiornatización, hemos
de recalcarlo, no es privativa de las probabilidades de origen empirico. La axioma-
tización es posible en las diversas clases de probabilidades que venimos consideran-
do y puede llevarse a cabo de infinitos modos, tantos como hombres haya dispuestos
a elaborar una estructura axiomática que reuna las condiciones precisas de consisten-
cia e independencía.

(1) Reflections on Sfiackle, Probsbility and our Ucertainty about Unc.rtsinty, Metrosconórníca,
X I . Pap, 74.
( 2) Rwiwv of Econom ies snd Statistics, X X X V I 1 n°- 3
t3) A not• on M. Gould': Discussion of Potential Surprisu, Ecn. Jour, LXVIII, 272.
(4) Uncartainty and Prusin^ss Decisions, Liverpool Univ. Prass 1951.
t5) Uncertaiuty i n Economic snd other R•flections. D• Economic 1956 n^ 11.
(6) Economatría XX V 1957.
(7) Th• Modul "Probebility" Mind LXV I I I, 270, 1959. .
í8) H. Cramer: Elementos d• le teoríe d• probsbilidadas. A^uiler S.A. Pa^. 14
Rese^iaremos brevemente algunas de las axiomáticas más importantes y más
características.
9.1. - Axiomática de DeFinetti. "Considerernos -dice Bruno de Finetti- un
suceso bien determinado y supongamos que no sabemos de antemano si ocurrirá
o no. La duda, acerca de si va o no a ocurrir, a la que estamos sometidos, se presta
a establecer comparaciones y, consecuentemente, graduaciones" ( 1). Si tenemos, pues,
los siguientes conocimientos de los sucesos, podemos elaborar una teoría de la proba-
bilidad totalmente rigurosa:
I.- Un suceso incierto es igualrnente probable, más probable o menos pro-
bable que otra.
II.- Un suceso incierto siempre se nos presenta más probable que el suceso
imposible .
III.-- Cuando juzgamos un suceso S más probable que otro S; el cual a
su vez, es juzgado más probable que otro S' ; el suceso S puede aparecer más probable
que el S"
IV. - I)adas Ias desigualdades,
Sl es más probable que S2,
,
sl es más probable que S'2,
puede afirrnarse esta otra.
SI U Sl es más probable que S2 U S2 ,
con tal que Sl sea incompatible con S1 y S2 con S2 .
Partiendo de este conjunto de axioma^s, puramente cualitativo, se llega a
una med.ida cuantitativa de la probabilidad y luego al teorema de la probabilidad to-
tal que per^ite la construcción de todo el Cálculo de probabilidades.
Puede darse también una definición directa, en términos numéricos, del gra-
do de probabilidad atribuído por una persona a un suceso dado, pero el método
axiomático, inclicado antes, tiene la ventaja, en el sentir de De Finetti, de permitir
un análisis más profundo y detallado, al empezar con nociones cualitativas hasta
llegar al concepto de probabilidad y eliminar el concepto de moneda. Can todo
el métado directa es más claro.
9.2.-- Axionuítica de Koopman: Sean a, b, h, k proposiciones experimenta-
les. El símbolo (^^ ) representa en el lenguaje de Koopman la negación, (.) la
conjunción o producto lógico, ( C) la implicación, (=) la equivalencia y{«) la
ordenación parcial. El sírnbolo a/h « b/k, se lee " a en la hipótesis h no es más
probable que b en la hipótesis k"

(1) 8. de F inetti : La previsión, ses lois ..., cap. I.


Las proposiciones experimentales forman el contenido básico de la teoría
de Koopman y, en su opinión, "cubren todos los casos clásicos de la probabilidad
matemática y muchos más (1) razón por la cual su teoría se restringe a ese tipo de
praposiciones. Los axiomas que consignamos a continuación, se refieren a un con-
cepto cualitativo ( ordinal) de la probabilidad, la cual es concebida como una rela-
ción lógica entre proposiciones, esto es "no más probable que" "y no menos pro-
bable que".
Los axiomas propuestos por Koopman son los siguientes, expresados en su
mismo lenguaje:

V. Axíoma de verificación: Si K Cb, entonces a/h « b/K.


I. Axi©nna de isnplicación: Si a/h «b/K y h C a, entonces X C b.
R. Axioma de reflexividad : Si H= K y a h= b K, entonces a/h « b/K.
T. Axioma de transitividad: Si a/h « b/K y b/K « a/1, entonces a/h « e/1.
A. Axioma de antisimetria: Si a/h « b/K, entonces a/k Sp ^ b/K .
C. Axiomas de composición: Sea Q ^al C bl C el y 4^ a2 C b2 C e2

Cl Si al/bl « a2/b` y bl fcl « bZ/c2 , entonces al/el « a2/c2 .

C2 Si al /b 1« b2/c^ y bl /c^ « a2/b2 entonces al /cl « a2/c2 .

A estos axiomas de composición corresponden otros (en número de cuatro)


de descornposición. Añade luego Koopman otros dos : uno que llama de hipótesis
alternativa y otro de subdivisión. El mismo demuestra que estos son consecuencia
de los demás, en un sistema completamente ordenado por la relación («).
Tomando corno base estos axiornas deduce de ellos todos los teoremas de
la probabilidad .
La primera axiomática que hemos reseñado tiene un carácter subjetivo. Del
mismo carácter goZa la propuesta por Ramsey en "Truth and Probability". La de
Koopman es de naturaleza lógica. Veamos ahora las axiomáticas con base frecuen-
cial. Antes es preciso hablar de la maternática precisa para esta axiomatización.
9.3. - La mater^nática de la axiornática frecuencialista. Para elaborar una
axiomática frecuencialista "tendremos que decidirnos -dice Willian Feller-- por una
clase de conjuntos mediante los cuales son definidas las probab' 'dades y una clase
de funciones que sean aceptables como variables aleatorias" (2). Ambos conceptos
están relacionados por lo que Loéve denomina "indicador de un conjunto." Indicador
de un conjunto A es una función que toma el valor uno en todos los puntos de A y

(1) Ths basas of Probabii i ty, Bull of the Anser. Msth Society, 48, 1940.
(21 W. Fsll^r: An Introduction to Probability Theory and ita Applications. Vol II, peg 102.
el valor cero en todos los puntos de su complemento A'. Suele representarse por
1 A. En súnbolos :

IA (xJ =^, si x E A; lA (zJ = U, en los demás casos.

La noción má.s general de función es demasiado amplia para los fines de la Es-
tadística. Basta con el concepto de función de Euler modernizada. Si partiendo de
funciones cantl"nuas podemos pasar a otra función conts"nua como limite de una su-
cesión, de suerte que constituyan un conjunto tal que:
a) toda función que es contínua pertenece al conjunto; b) se verifican las
condiciones

(i) ^• rX) E B, Y= 1,2,• •-, n

(ii) lirn fn (x^ = f (x/


n -^ o0

C^) f lx/ E B,

entonces tenemos definida una clase de funciones que es cerrada desde el punto de
vista del límite. tJna tal clase -dice Feller- ex.iste evidentemente y la clase de todas
estas funciones es única. La menor de todas ellas es asimismo una familia. cerrada
y obviamente es la menor de tales clases. La prudencia nos exige ceñir nuestras con-
sideraciones a esta clase mínima.

"La rnenor clase cerrada de funciones que contiene todas las funciones con-
tínuas, es llamada 1a clase de Baire y será designada por B. Las funciones de la clase B
son llamadas funciones de Baire". (1).
Es fácil ver que toda función de funciones de Baire es aún una función
de Ba.ire. Ninguna operación realizada con funciones de Baire conducirá a un resulta-
do que no pertenezca a la clase. Esta clase es, pues, suficiente para elaborar toda la
teoría y al ser mínima, no es posible elegir otra más simplificada.

La.s funciones en las que estamos particularmente interesados son las llama-
das aditivas. Sea F una función que asigna a cada intervalo I un valor finito F(I).
Esta función se llama aditiva si para cada partición del intervalo I en subintervalos
disjuntos Il ,...,^n, se verifica: F(11= F(I^, ^. ...= F(In J. La restricción a valores
^initos es excesiva si se quiere elaborar una teoría general de la probabilidad. En-
tonces se introduce el concepto de clase completamente aditiva o Q-aditiva, de
funciones en que el intervalo I queda dividido en un infinito numerable de subin-
tervalos disjuntos I1, I2 ,. .., de modo que F(I f= E F(Ik J.

(1) W. Feller: I bid, peg. 104.


Si hacemos An = I^ ^,/ 12 ^„/ ... U In, para n suficientemente grande,
A^1 adquiere un valor prácticamente igual a I, es decir, F(AnJ debe tender a F(IJ,
que es equivalente a lo que se postula en las clases completamente aditivas, por lo
que éstas se consideran suficientes para elaborar la teorYa, como queda comprobado
por la experiencia.

Además, por tratarse de funciones que pretenden def^nir probabilidades, ha-


bran de ser no negativas y"normales" por la condición F(-^ ,«^ )= 1. Esta
última condición exige dividir la longitud en el espacio E1 , e1 área en el E2, etc, en
intervalos unitarios y estudiarlos por separado,
Dada una función escalar U que toma los valores a 1,..., an, en los
intervalos I1 ,..., lu respectivamente, defninzos, con Feller, la función llamada
"esperanza de u" así:

E (u) = a 1 . F (Il )+ . . . + au, . F (In ) . (A)

Esta función es

(i) Aditiva, para forrnas lineales: E (c ^ u, + c2 u2) = c1 E(u^ )+ c2 E(U^ ).

(ii) Posi tiva : u> D F(u J> o

%) Normada: E( I J-- 1

En la teoria de la integral de Riemam, para cada función u, contí_nua en el


intervalos (o,l ), existe una sucesión de funciones escalares un tales que un-^ u en (o,l ),
Entonces es, por definición, .E (uJ = lim E (un^. Resulta, por lo tanto, innecesaria
la convergencia uniforme -seguimos citando a Feller- y puede usarse la misma de-
finicián para E(u) siempre que un -^ u punto a punto. De este modo es posible
extender E (u j a t©das las funciones de Baire acotadas, y la extensión es única.
Cuando se trata de funciones no acotadas, son inevitables las integrales divergentes. ..
Entonces no se produce ninguna perturbación porque la teoría de Lebesgue consi-
dera únicamente la íntegrabilidad absoluta. En términos poco precisos, podemos decir
que a partir de la definición (A), para esperanzas de funciones simples, es posible
definir E(u J para funciones Baire generales, por aproxirnaciones sucesivas y pas©
al límite . El número E (u), asi definido, es la integral de Stieltjes--Lebesgue de u con
respecto a F" (1).
Estas dos propiedades de E (u) son de especial interés:
I.--^ Sea Un integrable y ta1 que Un ^ u punto a punto. Si existe un integra-
ble U tal que ^ Un j C U para todo n, es u integrable y E(Un J-^ E(u).

i 1) I bid, pag. 10$.


II.--Para todo integrable u y todo F ^ o es posible encontrar una función
escalar v tal que E( ^ u- v j)<. E
Vemos, pues, que tenemos a nuest ra disposic i4n dos modos distintos de
expresar el concepto de Ia función esperanza. Supuesto que el indicador lA es una
función de Baire, podemos escribir:

E(IA u) _ ^ u (xJ d F(xJ.

La notacián de1 primer miembro es preferible, según Feller, en aquellos


casos en que la función de intervalo F permanece fija y se acentúa la dependencia
con respecto a la función de punto u. La "notación integral" es preferible cuando
sucede lo contrario.
Los conjuntos utilizados en las axiomáticas frecuencialistas son los de Borel.
Un conjunto A en e1 especio Er cuyo indicador IA es una función de Baire,
se llama conjunto de Borel, Los intervalos son, pues, conjuntos de Borel.
Una Q- álgebra.es una familia a de subconjuntos de un con^unto E dado,
tales que
(i ) Si A E t,t también A'_.E -- A+^ tx.

(ii) Sj { An ^ es una sucesión numerable de conjuntos que E a también


U An y (1 An ,pertenecen a tt .

La mínima a^ -- álgebra que contiene todos los conjuntos abiertos de un


espacio topológico E, es llamada algebra de Borel. Para E = Er, ésta coincide con
con la familia de Borel.
Luego veremos que pueden obtenerse aproximaciones de los conjuntos de
Borel por medio de intervalos.

9.4. -- Axiomán'ca de Kolmogoroff -- Cramér -^echet. La axiomática pro-


puesta por Kolmogoroff ( 1) es la que suelen adoptar la mayor parte de autores mo-
dernos, con modificaciones más o menos substanciales.
Es como sigue :

I.- A cada suceso A E a le corresponde un número real P (A^, su pro-


babili dad, tal que o^ P(A ).
II.-- Si A 1, A 2,..., son incompatibles

(1) A. N. Kolmogoroff: Grsndbe^riffe der Wahrsche in lichkelts rechnung. Trsducclón al inglés


por N. Morrison, 1950
Cyo pp,

P/ V Al/ -- ^ PjAl1
i=1 i
III.--P( E)=1
Llamaremos al espacio E, con la Q--algebra a de sucesos sobre los que se ha
definido la función de probabilidad P, espacio de probabilidad o espacio probaói-
lis tico y lo designaremos por ( E, a P, )".
Los axiomas I y III coinciden con el 1° y 2°- de Kolmogorof. E1 II sintetiza
el 3° y 4° de Kolmagoroff, Kolmogoroff añ.ade un 5° axioma que llama de con-
tinuidad y que dice así :
Considerernos una sucesión decreciente de conjuntos

Al ^ Az ^ A3 ^ ... ^Ati ^... ,

cuya intersección se aproxima al conjunto vacío cuando n- ^ ^ entonces

lim P / An ^
n -^ ^
Puede verse fácilmente que este axiorna es equivalente a14° de Kolmogoroff
y al II anterior, es decir, que una familia de conjuntos cornpletamente aditiva posee
la anterior continuidad y recíprocamente.

Cramér propone tres axiomas. "Los axiomas 1 y 2 san equivalentes a los


establecidos por Kolmogoroff --según su propia confesión-. Sin embargo -añade- los
axiornas de Kolmogoroff son aplicables a variables aleatorias definidas en espacios de
carácter más general que los aquí considerados" ( l).
El axioma 3 dice :"Si x 2,.. . xn son variables aleatarias, toda varia-
aleatoria combinada de ( x 2,... xn J es así mismo una variable aleatoria.

El punto de partida de todas estas axiomáticas es un canjunto E llamado


espacio muestral de sucesos elementales. Los subconjuntos
______^ ___ _ de E son llamados
___^__ _ ^__ __ por
algunos autores "sucesos". En el caso de un espacio muestral discreto, el conjunto a
de todos los subconjuntos de E, forman una familia de Borel que contiene E. En el
caso más general, a es alguna familia de subconjuntos de E y satvo que a sea la
mínirna familia de Borel, que representamos por Q ésta se obtiene, a partir de a, por
medio del "teorerna de extensión" de Banach.
La idea general está perfectamente trazada en estas palabras de Cramer:
"Siguiendo a Kolmogoroff, tomamos como punto de partida la observación de que
la probabilidad P jAJ puede ser considerada como una función aditiva de conjunto,
del conjunta A. Nos contentamos en efecto, con postular, de modo especial, la exis-

(1) S, Rios: Mitodos Matomditicos de Estedística. p^. 178.


tencia de una función de este tipo, definida por una cierta fumilia de conjuntos A
en el espacio en el que nuestra variable puntual X está restringida y ta] que P(A)
desígna la probabilidad de que X E A"(1)_
Feller, después de definir "una medida de probabilidad P subre una d - alge-
bra a en un espacio E'" med.iante unas condiciones análogas a las anteriores, añade :
"Naturalmente esta definicíón provee únicamente el fundamento para una estructura
general, y en casos individuales es necesaño elegir una Q- algebra adecuada y cons-
truir sobre ella la medida de probabilidad". (2).
Por su parte Halmos escribe : "La probabilidad es una rama de las matemáti-
cas. La probabilidad numérica es una función de medida, esto es, una función P
aditiva, finita, no negativa y numerable, de elementos en una tr-algebra de Boole"(3) .

9.5. - Controversia Tlon Mises - Cramér. " Ahora ---dice Von Ni.ises-- una
tal descripción de los instrumentos matemáticos utilizados en el cálcuio de la proba-
bilidad nos parece sólo parte de la historia. Distribuciones de masa, distribuciones
de densidad y carga eléctrica, son asímismo funcíones aditivas de con^ unto. Si no
hay nada específico de la probabilidad. ^por qué definimos la "independencia" para
distribuciones de probabilidad y no para distribuciones de masa? ^,Por qué consi-
deramos variables aleatorias, convoluciones, cadenas y otros conceptos y problemas,
específicos del Cálculo de probabilidades? (4).
Von Mises niega que la probabilidad sea una ciencia matemática, del mismo
modo que "la hidrodinámica no es una rama de la teoría de ecuaciones diferenciales
en derivadas parciales." "Nuestra meta ---dice- a1 presentar la probabi.lidad como
ciencia matemática es incorporar, a las hipótesis básicas, las relaciones básicas idea-
lizadas con la realidad, como se hace en Mecánica y otras ciencias".
Estas hipótesis básicas son las siguientes:

Lim.
I. - n -^ ^ = Pi, i = 1,^,...,K,

donde nl es el número de resultados, correspondientes a un valor dado del espacio


muestral, entre los n primeros de la sucesión, con la hipótesis adicional:
00
^ Pi --- l
i^l

{1 ) N. Cramér: Rendom Variables end Probabiiity Distributions, Cambridge, 1931.


(2 ) An 1 ntrod, To Prob. Theory, pag 112.
í3) The foundetions of probsbility. Amer. MSth. Monthly, 51, peg. 493.
(4) Math. Theory of Prob. pa^g. 44.
II .-"En la teoría de la probabilid,ad trataremos (no exclusivamente) con su-
cesiones particulares que satisfacen la hipótesis 1 y para las cuales puede suponerse
que el límite frecuencial de un resultado al no depende del punto de elección. Si
esto se verifica, el límite será llamaclo también probabilidad, o, más completamente
la probabilidad P(u^l^ de hallar el resultado ai en la sucesión bajo consideración".
Cramer ha criticado duramente estas hipótesis que, según él, "contienen una
mezcla de elementos empíricos y teóricas lo que, usualmente se evita en las modernas
teorias axiomáticas. Ello sería comparable, p. ejem., a definir un punto geométrico,
como límite de una mancha de tiza de dimensiones indefinidamente decrecientes,
lo cual no se hace usualmente en la geometría axiomática". (1)
Von Mises, a su vez, replica de1 siguiente modo: "La meZCla de elementos
empíricos y teóricos es, en nuestra opinión inevitable en una ciencia matemática.
Cuando en la teoría de la elasticidad intraducimos los conceptos de tensión y fuerza,
no podemos contentarnos can exponer que son tensores simétricos de segundo orden.
Tenemos que poner en las hipótesis básicas la mecánica del contínuo. La ley de
Hooke, etc. cada una de e11as contiene una mezcla de elementos teóricos y empíricos.
La teoría de la elasticidad no es análisis de tensores. Nuestra definición es menos
comparable a una mancha de tiza que la definición de velocidad como límite del
cociente incremental del espacio por el tiempo o a la definición de la densidad espe-
cífica como límite de la masa partido por el volumen. Todas estas defniciones tienen
también algo de la "mancha de tiza": la transición de la abservación a los conceptos
teóricos, no puede ser completamente matematizada. No es una conclusión lógica,
sino más bien una elección, con lo que uno cree "alzarse", frente a nuevas obser-
vaciones" (2}.
Para poner un poco de luz en la dlscusión, importa deslindar bien los te-
rrenos. En la aproximación frecuencial, "siempre que se utiliza el término probabi-
lidad, se refiere al límite de una frecuencia, y esta frecuencia debe ser aproximada-
mente "verificada". al menos conceptualmente". { 2). Este es el punto de vista de
Von Mises, Tornier y Wald. En la definición de la probabilidad como medida de un
^ onjunto no hay ninguna incorporación a la teoría de las frecuencias relativas, sino
que éstas aparecen como mera interpretación de la misma y sin que sea necesario
apelar a la verificabilidad, tal como propugnan Kolmogoroff, Cramer y Frechet como
más representativos.
Samuel Wilks escribe :"En 1a actual asignación de probabilidades a sucesos,
es uno habitualmente guiada por una hipótesis basada en lo que se cree "abocará"
la frecuencia relativa de las sucesos en una serie de pruebas con base experimental.
En la formulación de Kolmagoroff, el punto fundamental está en que la teoria ma-

11 ) M art. M at . d e E stad i st ic a, p ág. 174 .


t2) Math Theory of Prob., pá^g. 45
temática empie^a después de la asignaci^n de prc^babilidades" t 1)
Esta observación de Wilks, estimamos que es de particular importa^^c^a L^^
axiomatizacián supone abstracción o conceptualiza^^c^r^ y estc^ implica una sustitu-
ción de abjetos empíricos por ideales. La teorí.^ ei>>p^eza después de realizar esta
sustitución. Lo que no vemos muy claro es el paso al limite de unas y otros, como
quieren los frecuencíalistas puros.

Von Mises se escuda en estas dos afirmaciones. a) "Mantenemos el simple


hecho que si la parte matemáticamente deductiva de la teoría se desarrolla a partir
de los axiomas especificando meramente la naturaleza de las variables básicas y fun-
ciones implicadas, entonces las relaciones con la experiencia no pueden ser dedu-
cidas matemáticamei^te'' Y añade :'`No se puede ^acar lo que no se puso". b)``En
las teorías de probabilid.ad como medida, en las que todas las deducciones están
basadas en !a definición de medida, la relación frecuencia.I es a menudo it^trod^^cida
luego, como una niá^s a^ntnc^s uaga idea o reflexión tardía'' (2^.
Pone luego el siguiente eiemplo. Uno de 1os iemas de Borej---Cante:!i dice
que si una rr^isrna prueba con probabilidad 1/2 se repite indefinidamente ^a proba-
bilidad P de que el suceso ocurra un núrnero finito de veces tiende a cerU". Pues
bien, dice Von ^[ ises, ``en la tearía frecuencialista, la probabilidad de que un suceso
ocurra indefinidamente no tiene lugar. Tal probabilidad no admite verificación, ni
aun conceptualmente". Pero, en cambio -añade-" la anteríor probabilidad P es la
medida de un óien definido conjunto y, para K.olmogoroff, este conjunto, como todo
conjunto de Borel, admite una probabilidad".
Otro punto vulnerable de la axiomática de Crarnér, por donde le ataca nue-
vamente Von Mises, es el siguiente: "De los trabajos de T^rnier, Eald y Cope'and,
se deduce que la probabilidad, en sentido comparable, no puede asignarse a todos
los conjuntos medibles y. ni siquiera, a todos los conjuntos de Borel . E1 postulado
enunciado- por Cramér de que" toda probabiiidad asignada a un suceso determinado
debe, en principio, estar sujeta a comprobación "está en contradicción con los axio-
mas que asignan probabilidades a todos los conjuntos de Borel" (3).
9. b. -- ^.^iomática de Torniér. El concepto básico de Torniér (4) es lo que
Ilama conjunto o espacio de sucesiones (folgenrnenge), que designa por B, y define
corno "el conjunto de toda^s las infinitas sucesiones que, lógicamente, podrían ob-
tenerse por la regla experixnental dada". Cada sucesión particular infinita es un pun-
to de B. Todos los subconjuntos de B a los que se asignan valores, junto con estos
valores, forman la farnilia B. Un subconjunto .^^ de B que contiene todas las suce-
siones de B y sólo aquellas que tienen la misrna "lorigitud" inicial n, es llamado

{ 1) Math emstical Statistics, pag. 11.


(21 Ibid, pag 46.
{ 3) 1 bid, pag 47 .
(4) E. Tornier: Wahrs^heinlich Keitsrechnung und aligemeine I ntegrations theorie. Ann. Arbor, 1 944.
conjllnta básico de orden n. B contiene, naturalmente, muchas conjuntos básicos.
Dos c anjuntos básicos son disjuntos o, por el contrario, uno está totalmente con-
tenido en el otro.
Estos conceptos son expresados formalmente, por Tornier, en los siguíentes
axiomas :
I.- Los Conjuntos de B forman una familia.
II.--Todos los cvnjuntas básicos d^e B, incluídos B y el conjunto vacío ^,
pertenecen a B.
III.-- a) A todo conjunto A de B asignamos un número entre cero y uno,
representada por J(A) y llamado su contenido. En particular, J(^ j^ o,J (B)=1.

b) Si A = A 1 U Az U... , donde los Ai son disjuntos y A E B, Ai E B, es


n
.1(A ) = ^ J (Anl
1
IV.-- Sea M un conjunto de B. Sean An y Bn, n= 1,2,..., sucesiones de
conjuntos de B, tales que para todo n,

Bn^M^An ,

y tales que para todo E positivo y suficientemente pequef^o, puede hallarse un n


tal que J(Bn) - J(An) C E,

entonces, M E B y J(M) = lim J(An) = lin J(Bn)


n -^ ^ n .^ ^,

V.-- B es la famil.ia mínima que satisface los 4 prirneros axiomas.


A diferencia de los axiomas de Kolmo ^oroff, los de Tornier señalan el ma-
terial básico ( axioma II) de construcción. Además expecifican la condición mínima
de amplitud (axioma V) y la de cornpletitud (axioma IV). Esta teoría se inspira en la
de conjuntos de jordán.

9. ^. -- Axiomdct^'ca de Renyi. La diferencia esencial entre la axiomática de


Renyi ( 1) y las del tipo Kolmogoroff, radica en que la de Renyi toma como base
las probabilidades cond.icionadas, en vez de las absolutas. La probabilidad de un su-
ceso A está siempre condicionada a la realizacxón de otro B. A,sí a1 lanzar una mo-
neda la probabilidad 1/2 de obtener cara está condicionada a la simetría y homoge-
neidad de la moneda. Las pruebas sucesivas suponen que no habrá desgastes en la
misma, ni otras alteraciones clue cambien de naturaleza e1 experimento. La supues-
ta constancia de estas circunstancias (sucesos) es causa de que se les ignore en los

(11 A. Renyi : Wahrscheinlich Keitsrechnung. Berlin, 1962.

- 132 -
cálculos conientes, pero esto no presupane negar su existencia, del mismo modo yue
se considera fijo el peso de un cuerpo en cualquier punto de una región aunque esta
no sea cierto.
Para simplificar la escritura representaremos por A B la intersección de los
sucesos A y B, y por ^ A11 ia unión de la sucesión A^j .
n
Dados dos sucesos A y B, la probabilidad de A, dado B, es un número
P(A/B) que satisface los siguientes axiomas:

I.- 0^ P (A JB) ^ I y P(A jA )= 1.

II.-- Si los sucesos An son excluyentes dado B, se verifica,

P(^ Anf B) = E P( An/B j.


n n

III.-- P ( CiAB ). P( AfB j= P( AC/B).

Los dos primeros axiomas se enuncian con un sblo suceso condicionante


y el tercero, con dos.
La justificación del axioma I es evidente ya que el lfmite frecuencial est^
siempre eantre cero y uno, y si nos ceiíimos al suceso de obtener cara, en el lanzamien=
to de una moneda, de modo que el suceso candicionante sea "obtener cara", el
resultado será necesariamente cara y el límite tomará el valor uno .
Para explicar el segundo axiama, supongamos que los sucesos A^, A 2,... , An,
relatívos al lanzamiento de una moneda, son tales que, dado B se excluyen dos a dos.
Entonces es fácil ver que la frecuencia relativa conespondiente a la suma de suce-
sos es igual a las sumas parciales de las frecuencias de cada uno. Es conveniente su-
poner que esta aditividad se cumple tanto en el caso de un número finito de sucesos,
como en el de un inf^nito numerable. La aditividad en el segundo caso "no viene
impuesta --dice el profesar Ríos-- con la misrrla fuerza que en el primero, pero camo
tampoco la intuición es contraria, se introduce por resultar más sencilla el desarrolla
de la teoria" (1).
Para interpretar el axiona III, consideremos, de nuevo, n lanzamientos de
una moneda, en condiciones aná^ogas, esto es, n resultados del suceso B. Sea n el
número de caras, es decir, que A ocurre m veces, y de éstas m veces, ocurre T
veces C. Entonces, r es el número de veces que ocurre A^ ~
Ahora bien, un resultado trivial es el siguiente :
r . ._._
_..,._ m _ r
-- _.,....
m n ^^

(1I S. A fos: Métodos est^disticos, pá9. 38

_. 133
PerU cuando ^i -^ ao , ^r -^ oo , siernpre que P (A/B) ^ Q y entonces tene-
IT1US :

!im r = P (C'/AB) ; lim nz = P (A/B^ ; !im ^


: r = p (A C/,f3).
m^^ m n -^^ n ^z ^^ n

Luego el tercer axioma resulta de obtener unos limites razonables en una


expresión trivial.
Sucede a rnenudo que un suceso B ocurre como parte a todo del suceso
condicionante. Si el suceso B es el espacio total E, hay economía en la notación
escribiendo P(A1 en vez de P(A/E) y PYA f C) por P(A jC.E). Omitir eI suceso condi-
cionante al expresar la probabilidad de un suceso elemental, equivale a considerar
un efecto al margen de su causa. Es lo que se hace con las llamadas "probabili-
dades absolutas", base de toda la inferencia estadística clásica, pero la inferencia
Bayesiana toma como base probabilidades condicionadas.
Es fácil observar que los sucesos observados A deberán pertenecer a una
o- álgebra de Borel y los conjuntos condicionantes B, a una subclase de la familia
de conjuntos de Borel. Una discusión completa de estos axiomas puede verse en la
obra citada de Renyi.

9.8. - Extensión de esta axiomrítica a los grados de creencia. La probabi-


lidad matemática considerada anteriormente, era sugerida por las propiedades de los
sueesos y las frecuencias relativas de los mismos. De los sucesos podemos pasar a
proposiciones, que son colecciones de sucesos por cuanto enuncian la ley de su ob-
tencián, y de Ias probabilidades de los sucesos, a las de las proposiciones. Estas
probabilidades, es dif cil que adrnitan una interpretacián frecuencial, ya que resulta
muy artificial imaginar repeticiones en cada una de las cuales una proposición es
cierta o falsa. Si A es una proposición, P(A/B) representa la creencia o grado de
convicción de una, de que A sea cierta, dado B.
En Estadistica se usa la palabra hipótesis en vez de propasición.
Del mismo modo que la longitud y la masa tienen propiedades matemáticas
comunes así los limites frecuenciales y las grados de creencia poseen caracteres aná-
logos que permiten identificarlos con probabilidades. Los conjuntos A de ordinario,
representan suces©s, cuando se trata de frecuencias relativas, y proposiciones o hi-
pbtesis, cuando se refieren a grados de creencia. Las hipótesis, como hemos indicado,
son al fin y aI cabo, colecciones de sucesos, y no es dar un gran salto, el paso
de unos a otros y considerar ciertos conjuntos del espacio muestral como hipótesis.
La justifieación de los axiomas anteriores aplicados a las proposiciones a
hipótesis se basan en el método de la "apuesta" al que ya nos hemos referido. No
volveremos sobre las ideas aqui expuestas y, principalmente a la interpretación dada
por Savage. 1✓ n particular, ya se discutió la duda presentada por Keynes y otros
autores sobre la posibilidad de medir numéricarnente Ios grados de creencia.

-- 134 -
Gorno anotación final, a las diversas axiomáticas reseñadas, querernos seña-
lar que los resultados a los yue cond^.^cen todas en las aplicaciones, son los misrnos.
Hemos pretendido en este artículo poner de manifiesto las modemas corrien-
tes sobre el concepto de probabilidad. Este concepto es único, pero son distántas
las interpretaciones del paso del mundo real a1 modelo matemático.

You might also like