You are on page 1of 12

VARIABLES ALEATORIAS

Notas

Indice
1. DEFINICIÓN DE VARIABLE ALEATORIA 1
2. DEFINICIÓN DE VARIABLES ALEATORIAS INDEPENDIENTES 1
3. VARIABLES ALEATORIAS DISCRETAS 2
4. VARIABLES ALEATORIAS CONTINUAS 4
5. VARIABLES ALEATORIAS MULTIDIMENSIONALES 9
6. TRANSFORMACIÓN DE VARIABLES 11
7. BIBLIOGRAFÍA 12

1. Definición de variable aleatoria


Se dice que una función X : Ω → es una variable aleatoria si la "suerte" de realización de sus posibles
valores puede establecerse con ayuda de los resultados de la experiencia aleatoria en estudio, cuyo
espacio muestral es Ω . Se trata, en definitiva, de una función que asigna un valor numérico a cada uno de
los resultados de una experiencia aleatoria.

2. Definición de variables aleatorias independientes


Dadas X e Y , variables aleatorias con funciones de densidad de probabilidad f X y fY , respectivamente,
se dice que son independientes si:
f ( x, y ) = f ( x ) f ( y )
cualesquiera que sean x e y .

donde f designa a la función de densidad conjunta de la variable bivariante ( X ,Y )


Otra forma de exponer este concepto, pasa por considerar los sucesos A y B de la experiencia aleatoria,
determinados por dos conjuntos de valores numéricos de X e Y , respectivamente. La independencia de
X e Y se traduce en la independencia entre A y B , es decir, la probabilidad de que tengan lugar los
sucesos A y B simultáneamente debe coincidir con el producto de la probabilidad de realización de A por
la de B :

Pr ( A ∩ B ) = Pr ( A ) × Pr ( B )

Esta definición puede extenderse a k variables aleatorias Y1 , Y2 , , Yk , donde la independencia entre ellas
está asegurada si

f ( y1 , y2 , , yk ) = f1 ( y1 ) f 2 ( y2 ) f k ( yk )
cualesquiera que sean y1 , y2 , , yk .
donde f designa la función de densidad conjunta de (Y1 , Y2 , , Yk ) ;

1
fi designa la función de densidad de Yi .

Se pueden distinguir distintos tipos de variables aleatorias según dos criterios de clasificación:
(a) Variables cuantitativas que son las que resultan de experimentos cuyos resultados son directamente
numéricos;
(b) Variables cualitativas que son las que proceden de experimentos cuyos resultados expresan una
cualidad no numérica que necesita ser cuantificada.
Otra clasificación más operativa de las variables aleatorias sería:
(a) Variable discreta: aquella que se define sobre un espacio muestral numerable, finito o infinito.
Espacio numerable es aquel cuyos elementos se pueden ordenar, asignándoles a cada uno un
número de la serie de los números naturales (del 1 al n ó del 1 al I ). Todas las variables con un
número finito de valores y todas las que tomen valores en números enteros o racionales
(fraccionarios), son variables discretas;
(b) Variable continua: es aquella que se define sobre un espacio asimilable al conjunto de los números
reales, es decir, un espacio no numerable (o un espacio infinito de tipo C o infinito dos).
En general, la regla de oro es que todas las variables que proceden de experimentos en los que se cuenta
son discretas y todas las variables que proceden de experimentos en los que se mide son continuas.
Se dice que hemos definido una variable aleatoria para un experimento aleatorio cuando hemos asociado
un valor numérico a cada resultado del experimento.
Sea E el espacio muestral asociado a un experimento. Se llama variable aleatoria a toda aplicación del
espacio muestral E en el conjunto de los números reales (es decir, asocia a cada elemento de E un
número real).
Se utilizan letras mayúsculas X , Y , para designar variables aleatorias, y las respectivas minúsculas,
x, y, para designar valores concretos de las mismas.
Si un experimento con espacio muestral E , tiene asociada la variable aleatoria X , es natural que se
planteen preguntas como: ¿cuál es la probabilidad de que X tome un determinado valor? Esto nos lleva a
establecer, por convenio, la siguiente notación:

X = x representa el suceso "la variable aleatoria X toma el valor x ", y Pr ( X = x ) representa la


probabilidad de dicho suceso
X < x representa el suceso "la variable aleatoria X toma un valor menor a x ", y
Pr ( X < x ) representa la probabilidad de que la variable aleatoria X tome un valor menor a x
X ≤ x representa el suceso "la variable aleatoria X toma un valor menor o igual a x ", y
Pr ( X ≤ x ) representa la probabilidad de que la variable aleatoria X tome un valor menor o igual
a x

3. Variables aleatorias discretas


Binomial Hipergeométrica
Binomial negativa Poisson
Geométrica Uniforme (discreta)

3.1. Distribución binomial


Usos
Una variable aleatoria Binomial representa el número de éxitos que ocurren en n repeticiones
independientes de un ensayo de Bernouilli cuya probabilidad de éxito es p . Así, se distribuyen de esta
forma magnitudes como el número de piezas defectuosas en un lote de tamaño n (moderado) cuando cada

2
pieza tiene una probabilidad p de ser defectuosa; el tamaño de un conjunto si éste es aleatorio y no
demasiado grande; el número de artículos demandados en un almacén; el número de encuestados que
están a favor de determinada cuestión y un cuantioso etcétera.

Notación y parámetros

La notación habitual es: X ∼ B ( n, p ) .

3.2. Distribución binomial negativa


Usos
Una variable aleatoria binomial negativa representa el número de fracasos que ocurren hasta obtener el e-n-
ésimo éxito en la realización de ensayos de Bernouilli con probabilidad p de éxito. Así, el número de
artículos examinados de un lote hasta que aparece el n-ésimo defectuoso; el número de candidatos a
entrevistar cuando se quiere formar un equipo de n personas idóneas para un puesto de trabajo; el número
de melocotones que un cliente exigente manipula antes de conseguir un kilo de ellos que satisfagan sus
criterios; etc.

Notación y parámetros

La notación habitual es X ∼ NegBin ( n, p ) o, a veces, X ∼ BN ( n, p ) .

3.3. Distribución geométrica


Usos
Una variable aleatoria geométrica representa el número de fracasos que ocurren hasta obtener el primer
éxito en la realización de ensayos de Bernouilli con probabilidad p de éxito. Así, el número de artículos
examinados de un lote hasta que aparece el primer defectuoso; el número de candidatos a entrevistar
cuando se quiere encontrar una única persona idónea para un puesto de trabajo; el número de melones que
un cliente exigente manosea antes de conseguir aquél que satisface sus criterios, etc.

Notación y parámetros

La notación habitual es X ∼ Geom ( p ) o, a veces, X ∼ G ( p ) .

3.4. Distribución hipergeométrica


Usos
Una variable aleatoria hipergeométrica representa el número de éxitos que ocurrirán cuando de una
población en la que hay N objetos cuya elección se considera (arbitrariamente) un éxito y M − N objetos
fracaso, se extrae una muestra, sin repetición, de tamaño n . Es importante notar que el muestreo se haga
sin repetición, es decir sin devolver los objetos al seno de la población antes de cada ensayo, ya que esta
característica es la única que diferencia esta distribución de la distribución binomial.
Se distribuyen según una hipergeométrica magnitudes tales como el número de hombres (o de mujeres)
que incluye una selección al azar de un grupo en el que ambos géneros están presentes, el número de
temas estudiados por un opositor que ha decidido estudiar sólo unos cuantos del temario de su oposición
cuando el examen consta de varios temas, etc.

Notación y parámetros

La notación habitual es X ∼ HiperGeom ( n, N , M ) o también X ∼ H ( n, N , M ) . Todos los parámetros


deben ser lógicamente positivos y representan: n el tamaño de la muestra extraída; N el número de éxitos
que contiene la población; M el número total de elementos de la población.

3
3.5. Distribución de Poisson
Usos
Una variable aleatoria de Poisson es en realidad una variable aleatoria binomial llevada al límite, es decir
cuando n →∞ . (aunque basta con que sea suficientemente grande) y p → 0 (aunque basta con que
seasuficientemente pequeño).
En general cualquier “suceso raro" puede ser perfectamente modelizado por una variable aleatoria de
Poisson. Ejemplos típicos son el número de remaches defectuosos en un avión (porque un avión puede
llegar a tener varios millones de ellos y al ser un mecanismo tan simple es realmente difícil que sea
defectuoso); el número de erratas en un libro (que contiene un gran número de palabras que difícilmente
están mal escritas); el número de llegadas a un servicio ( o de llamadas a un callcenter) si la distribución
entre los tiempos es exponencial; el número de accidentes laborales en un mes en una gran empresa; el
número de personas que entran en un supermercado en un minuto; el número de personas residentes en
una gran ciudad que en un día sufren un infarto; etc.

Notación y parámetros

La notación habitual es X ∼ Poisson ( λ ) . El único parámetro debe ser positivo: λ >0 .

3.6. Distribución uniforme (discreta)


Usos
Esta variable aleatoria es el equivalente discreto de la de mismo nombre dentro de las distribuciones
continuas. Se utiliza cuando un conjunto de posibles resultados es igualmente probable: el número de veces
que aparecerá cada una de las caras de un dado regular; el dígito final de los números premiados en la
lotería, etc.

Notación y parámetros

La notación habitual es X ∼ UD ( a, b ) . Se verifica que a ≤ X ≤ b y a < b .

3.7. Parámetros de una variable aleatoria discreta


n
Esperanza matemática (media) µ = ∑ xi pi
i =1

n n
Varianza σ =
2
∑x
i =1
2
i pi − µ =2
∑(x
i =1
2
i − µ 2 ) pi

n
Desviación típica σ =+ ∑x
i =1
2
i pi − µ 2

4. Variables aleatorias continuas


Beta Gamma Normal
Bradford Gumbel Pareto
Cauchy Logística Triangular
Exponencial Logaritmo normal Uniforme

4
4.1. Distribución beta
Usos
Debido a su gran flexibilidad se utiliza en situaciones en las que la ausencia de datos concretos no impide,
sin embargo, tener una idea del comportamiento "global" de la variable aleatoria. Si suponemos conocidos,
o razonablemente supuestos, valores tales como el máximo, mínimo, media o moda y el tipo de simetría (o
asimetría), entonces es posible encontrar una distribución Beta que se adapte a dichas suposiciones.
También se utiliza para simular la proporción (o el número total) de productos defectuosos en un lote de
fabricación, la duración de un proceso (en PERT/CPM), o la mediana de una muestra aleatoria.

Notación y parámetros

La notación habitual es X ∼ Be (α , β ) o bien X ∼ Beta (α , β ) , los dos parámetros son de forma

(α , β > 0 ) . En Excel la notación es diferente y se basa en el hecho de que la distribución puede se


fácilmente reescalada a un intervalo ( a, b ) ya que si X ∼ Be (α , β ) → 0 ≤ X ≤1 al hacer
X ′ = a + ( b − a ) X tendríamos X ′ ∼ Be (α , β ) pero ahora con a ≤ X ′ ≤ b . Así, la notación en Excel es
X ′ ∼ Be (α , β , a, b ) ; en este caso los parámetros a y b son de escala en la distribución.

Propiedades
Si α = β la distribución es simétrica y centrada;
Si α = β = 1 se convierte en una distribución uniforme;

Si X ∼ Be (α , β ) ↔ 1 − X ∼ Be ( β , α ) ;

Be (1, 2 ) es la distribución triangular izquierda;


Be ( 2,1) es la distribución triangular derecha;

( )
Be 1 , 1 es la distribución arcoseno.
2 2

4.2. Distribución de Bradford


Usos
Su uso es muy restringido en simulación, se trata de otra distribución que, como la de Pareto, modeliza
cualquier fenómeno en el que "sólo unos pocos controlan una gran parte del todo". La distribución de
Bradford se aplica concretamente al número de referencias (bibliográficas, en el trabajo original) a un
determinado tema e intenta explicar un hecho observado por Samuel Bradford (1934) que puede definirse
de esta manera: "un tercio de las referencias provienen de un reducido grupo de fuentes; otro tercio de un
grupo menos reducido y el tercio restante de un disperso grupo de fuentes". Por ejemplo, encontradas 300
referencias sobre un tema, 100 se encuentran en un grupo de cinco revistas; otras 100 en un grupo de 25 y
las restantes en un amplio grupo de 100 fuentes.

Notación y parámetros

La notación habitual es X ∼ Bradford ( A, B, C )

donde A es un parámetro de posición;


B es un parámetro de escala,
C es un parámetro de forma

Propiedades
Es una distribución de valores positivos siempre menores que B , cuya moda es A .

5
4.3. Distribución de Cauchy
Usos
El cociente de dos cantidades normales estándar independientes sigue una distribución de Cauchy, este
hecho es suficiente para que esta distribución deba ser tenida en cuenta a la hora de realizar simulaciones.
 π π
De otra manera, si θ se distribuye U ∼  − ,  , entonces X = tg (θ ) se distribuye según una
 2 2
distribución de Cauchy ( a = 0, b =1) . Así, la distancia a la que un segmento de longitud infinita y con un
origen arbitrario corta a una recta (la distancia se considera desde el punto de corte de la recta que
determina la distancia del origen a la recta) se distribuye con arreglo a esta distribución cuando el ángulo
π π
que forma el segmento con la recta es arbitrario (esto es, igualmente posible entre − , .
2 2
La distribución de Cauchy se caracteriza por tener las colas (es simétrica) mucho más largas que otras
distribuciones simétricas (la normal o incluso la logística) esto hace que tenga aplicación durante la fase de
validación de un modelo cuando se quiere someter a éste a un gran número de valores extremos.

Notación y parámetros
No es una distribución demasiado conocida. Aunque pueda encontrarse con otra notación, la habitual es
X ∼ C ( a, b ) ,
donde a es el parámetro de posición ( −∞ < a < ∞ ) ; y

b es el parámetro de escala ( b > 0 ) (b>0).

4.4. Distribución exponencial


Usos
La distribución exponencial es una de las más utilizadas en simulación, sus valores son siempre positivos lo
que la liga fundamentalmente con la modelización de "tiempos", pero lo que la convierte en sumamente
importante es el hecho de que se trata de la única distribución continua cuya tasa de fallo es constante, o
dicho de otra forma, no tiene memoria. Esto supone que la magnitud simulada, el tiempo necesario para que
se complete una tarea, el tiempo hasta el fallo de un dispositivo mecánico, el tiempo entre llegadas de los
clientes a una cola, es independiente del instante del tiempo en que nos encontremos y por tanto del tiempo
transcurrido hasta ese momento.
Esta propiedad (conocida en la literatura anglosajona como memoryless property) es harto frecuente,
determinados dispositivos electrónicos, por ejemplo, no sufren desgaste y por lo tanto prácticamente no
envejecen por lo que su probabilidad de fallo no aumenta a lo largo de su vida útil.
Por otra parte, si el número de sucesos ocurridos en un intervalo de tiempo sigue una distribución de
Poisson, entonces el tiempo entre dos de estos sucesos se distribuye de forma exponencial.

Notación y parámetros

La notación habitual es X ∼ Exp ( β )

donde β es el parámetro de escala ( β > 0) .


4.5. Distribución gamma
Usos
La distribución gamma es la generalización de algunas de las distribuciones más usadas en la modelización
de fenómenos para su simulación: la exponencial, y la distribución Erlang no son sino casos particulares
(junto con la χ 2 ) de la distribución gamma. Su empleo en simulación / MonteCarlo está relacionado con los

6
fenómenos de espera, el hecho de que sea siempre positiva la liga a magnitudes como el tiempo para
realizar una tarea o el tiempo hasta el fallo de un dispositivo, entre otras posibles aplicaciones.
Estas aplicaciones se derivan del hecho de que puede considerarse como la probabilidad de que ocurran α

sucesos en un periodo ( 1β ) de tiempo (por ejemplo que fallen los k subsistemas de un dispositivo que

harán que éste finalmente deje de funcionar; que se lleven a cabo las k subtareas que componen una tarea
principal con lo que ésta puede considerarse terminada, etc.)

Notación y parámetros

La notación habitual es X ∼ Gamma (α , β )

donde α (α > 0 ) ;
es un parámetro de forma,

β es un parámetro de escala, ( β > 0 ) .

4.6. Distribución de Gumbel


Usos
La distribución Gumbel es también conocida como LogWeibull, Gomperzt o Fisher-Tippet. Es la distribución
de los valores extremos (máximo o mínimos) de una muestra suficientemente grande de variables aleatorias
independientes de una misma distribución.

Notación y parámetros

La notación habitual es X ∼ Gumbel (α , β )

donde α es un parámetro de posición, ( −∞ < α < ∞ ) ;

β es un parámetro de forma, ( β > 0) .


4.7. Distribución logística
Usos
Aunque teóricamente se trata de la distribución de la media de los valores máximo y mínimo de una muestra
de tamaño n ( n → ∞ ) , su utilización está más relacionada con el crecimiento futuro de una magnitud a lo
largo del tiempo. Si dicho crecimiento es directamente proporcional al valor actual de dicha magnitud
entonces se dice que el crecimiento es exponencial, si además de esto existe un techo que impide un
crecimiento infinito la curva de la magnitud sobre el eje del tiempo es una curva logística. Esto hace que
esta distribución se pueda emplear, genéricamente, para representar el valor en un momento del tiempo de
una magnitud de esas características.
Otro motivo para su utilización es su gran parecido con la distribución normal pero con la ventaja de tener
una función de distribución mucho más sencilla lo que posibilita extraordinariamente su tratamiento
analítico.

Notación y parámetros

La notación habitual es X ∼ Log (α , β )

donde α es un parámetro de posición, ( −∞ < α < ∞ ) ;

β es un parámetro de forma, ( β > 0) .

7
4.8. Distribución lognormal
Usos
De la misma manera que la suma de un número (suficiente) de variables aleatorias positivas se distribuye
de forma normal, el producto de un número (suficiente) de variables aleatorias positivas se distribuye de
forma log–normal. Así, numerosas magnitudes en las que en vez de la adición está presente el producto, se
modelizan a través de esta distribución; por ejemplo la evolución de los precios Pt de un determinado
producto puede modelizarse de la forma siguiente:
 σ2 
 µ − t +ε σ t
2 
Pt = P0 e 

donde: P0 es el precio inicial<


µ es el crecimiento medio del mercado<
σ es la desviación estándar del crecimiento del mercado; y
ε es un término de error que absorbe la incertidumbre de los precios en todo momento.
En estas circunstancias, Pt se distribuye de forma logaritmo–normal.
Puesto que la distribución es siempre positiva, se emplea también para modelizar tiempos: tiempo hasta el
fallo de un dispositivo; tiempo para llevar a cabo una tarea.

Notación y parámetros

La notación habitual es X ∼ LN ( µ ,σ ) ,
2

donde µ es el parámetro de escala; y

σ2 es el parámetro de forma (σ > 0 ) .


4.9. Distribución normal
Usos
En virtud del teorema central del límite cualquier magnitud que sea suma de otras magnitudes, sean éstas
como sean, se distribuirá de forma normal.

Notación y parámetros

La notación habitual es X ∼ N ( µ ,σ ) ,
2

donde µ es el parámetro de posición; y

σ2 es el parámetro de escala (σ > 0 )


4.10. Distribución triangular
Usos
Su uso es como aproximación a la modelización de una magnitud aleatoria de la que no se cuenta con
datos y únicamente puede aventurarse un mínimo y máximo absolutos y un valor modal

4.11. Distribución de Pareto


Usos
La distribución de Pareto aparece asociada a multitud de magnitudes naturales. Es profusamente empleada
para modelizar aspectos tales como: la distribución de la renta de los individuos (cuando ésta supera un
cierto umbral β ); las reclamaciones de seguros; la distribución de recursos naturales en zonas geográficas;

8
el tamaño de las ciudades; el número de empleados de las empresas; las fluctuaciones de los precios en los
mercados de valores, entre otras. En algunos textos la encontramos exclusivamente asociada a la
distribución de los ingresos de los individuos: "la probabilidad de que la renta de un individuo supere una
cierta cantidad A es una variable aleatoria de Pareto (α = A ) ".
En general, es una distribución a tener en cuenta para modelizar una magnitud (positiva) cuando en ésta se
cumpla que un pequeño porcentaje de valores aparece un gran número de veces y es posible un elevado
número de valores extremos aunque muy poco probables.

Notación y parámetros

La notación habitual es X ∼ Par (α , β )

donde α, β son ambos parámetros de escala (α , β > 0 ) ; y, además


β indica el valor mínimo posible de la variable ( β ≤ X < ∞ ) .

4.12. Distribución uniforme


Usos
Su uso es como aproximación a la modelización de una magnitud aleatoria de la que no se cuenta con
datos y únicamente puede aventurarse un mínimo y máximo absolutos no pudiéndose hacer conjeturas
sobre su distribución dentro de ese intervalo. Por otra parte es la base de la generación del resto de
variables aleatorias.

Notación y parámetros

La notación habitual es X ∼ U ( a, b ) ,
donde a es el parámetro de posición; y
b−a determina la escala de la distribución ( b > a ) .

5. Variables aleatorias multidimensionales

5.1 Definición
Sea E el espacio muestral asociado a un experimento aleatorio. Sea Ω un espacio de sucesos asociado a
E . Llamaremos variable aleatoria multidimensional o variable aleatoria n-dimensional a una función
X = ( X 1, , Xn ) X :E → n

Cada variable componente de una variable aleatoria n-dimensional es una variable aleatoria unidimensional
que recibe el nombre de variable marginal: si ( X ,Y ) es una variable aleatoria bidimensional, llamaremos
variables marginales a cada una de las variables componentes, X e Y , y a sus distribuciones respectivas,
distribuciones marginales.

5.2. Variables aleatorias bidimensionales de tipo discreto y continuo


Variables discretas

Diremos que una variable aleatoria ( X , Y ) es de tipo discreto o, simplemente, discreta si el conjunto de
posibles pares de valores de la variable es finito o infinito numerable. Los pares de valores que tienen
probabilidad positiva se llaman puntos de masa

9
Variables continuas
Las variables aleatorias bidimensionales de tipo continuo son una extensión de las variables aleatorias
(unidimensionales) continuas que hemos estudiado en el tema anterior: son aquellas que toman valores en
el recinto del plano.
Diremos que una variable aleatoria bidimensional ( X ,Y ) es de tipo continuo o, simplemente, continua si
existe una función f :
2
→ no negativa tal que la función de distribución de ( X , Y ) , F ( x, y ) , verifica
que

∫ ( ∫ f ( u, v ) dv ) du
x y
F ( x, y ) = ∀ ( x, y ) ∈ 2
−∞ −∞

A esta función f ( x, y ) la llamaremos función de densidad de probabilidad conjunta o, simplemente, función


de densidad conjunta.

Distribuciones marginales

Si ( X ,Y ) es una variable aleatoria bidimensional, llamaremos variables marginales a cada una de las
variables componentes, X e Y , y a sus distribuciones respectivas, distribuciones marginales.
Intuitivamente, dos sucesos son independientes cuando el conocimiento de la ocurrencia de uno de ellos no
modifica la probabilidad del otro. Este concepto se puede extender a variables aleatorias
En este contexto, si ( X ,Y ) es una variable aleatoria bidimensional, y sabemos que Y ha tomado el valor
y , diremos que X e Y son variable aleatorias independientes cuando este conocimiento no modifica la
distribución de probabilidad de X . Esta idea se puede generalizar al caso de variables aleatorias n–
dimensionales

5. 3. Independencia de variables aleatorias bi y n–dimensionales


Teorema:

Sea ( X ,Y ) una variable aleatoria bidimensional: Entonces, X e Y son independientes si y solo si:

• Si ( X ,Y ) es discreta con distribución de probabilidad {( x , y ) , p }; i, j ∈


i i ij {(xi ,yj ), pij}, i, j∈N,
se verifica que:
pi j = Pr ( X = xi , Y = y j ) = Pr ( X = xi ) Pr (Y = y j ) = pi p j ∀ ( x, y ) ∈ 2

• Si ( X ,Y ) es continua con función de densidad f ( x, y ) , se verifica que

f ( x, y ) = f X ( x ) f Y ( y ) ∀ ( x, y ) ∈ 2

Esta caracterización se extiende al caso de n variables y ya que va a ser de gran importancia en temas
posteriores, se describe a continuación.

Teorema:

Sea ( X 1, , X n ) una variable aleatoria n–dimensional. Entonces, las variables X 1 , , X n son


independientes si y solo si se verifica ∀ x1 , x2 , , xn ∈ :

• Si ( X 1, , X n ) es discreta,
Pr ( X 1 = x1 , , X n = xn ) = Pr ( X 1 = x1 ) Pr ( X n = xn )
• Si ( X 1, , X n ) es continua con función de densidad f ,
f ( x1 , x2 , , xn ) = f ( x1 ) f ( x2 ) f ( xn )

10
6. Transformación de variables
Cuando una variable no satisface las asunciones de normalidad, homogeneidad de varianzas o linealidad,
puede ser útil corregir la deficiencia usando una transformación de la misma.
Una transformación es una función de un valor que define un nuevo valor. Su forma general es: y = f(x),
donde f es la función de transformación.
Se distinguen dos categorías de transformación: transformación lineal y transformación no lineal
La transformación lineal cambia la escala de la distribución pero no la forma de la distribución. Podemos de
esta manera eliminar valores negativos.
La transformación no lineal cambia la distribución para ajustarla a la distribución normal y estabiliza la
varianza.
Hay distintos tipos de transformación de las variables y entre ellos podemos citar los siguientes:
• Estandarización Z o z–scores. Convierte todos los valores de la población (o muestra) en medidas de
desviación estándar por encima o por debajo de la media. Estos valores transformados se llaman
scores estándar o z–scores. Un score estándar es la distancia de un valor a la media de la distribución.
La distribución resultante de este proceso tiene una media de cero (0) y una desviación estándar de uno
(1). La estandarización Z no normaliza una distribución; el tipo (o forma) de la distribución permanece
el mismo.
El beneficio de este proceso es hacer variables con diferentes o diferentes unidades de medida o
diferentes escalas de medida comparables.
Cuando una transformación Z se hace en una población normal, la distribución resultante se llama
distribución normal estándar o distribución Z .
Esta transformación es común en la regresión lineal. En la regresión lineal la pendiente ( b ) representa
el coeficiente de correlación no estandarizado, mientras que el coeficiente beta ( β ) representa el
coeficiente de correlación estandarizado, por eso la b compara la misma variable en diferentes
ecuaciones, mientras que la β compara diferentes variables dentro de la misma ecuación.
• Transformación lineal. Traslada los datos a un nuevo origen por expansión (o contracción) de la escala
de medida. La distribución no cambia. Tiene la forma general y = b x + a , donde a es la translación o
constante aditiva y b es la constante multiplicativa.
La constante de translación solamente agrega un valor constante a cada medida. Tiene el efecto de
cambiar el origen del eje x . La constante multiplicativa expande (o contrae) la escala, tiene un efecto
de escala.
• Transformación logarítmica o logaritmo ampliada: Se usa para normalizar una distribución que tenga un
sesgo positivo extremo. También es apropiada para alguna población cuando la varianza es
proporcional a la media.
3
• Transformación x : se usa para reducir sesgo negativo extremo.
2
• Transformación x : se usa para corregir sesgo negativo.
• Transformación raíz cuadrada o raíz cuadrada ampliada: reduce el sesgo positivo de tipo medio.

• Transformación inversa ( 1 x ) : reduce el sesgo positivo muy extremo.


• Transformación arco seno: corrige el sesgo positivo.
• Transformación potencial x ( ) : corrige el sesgo positivo y/o negativo.
N

 2 
• Transformación seno hiperbólico inverso  −x 
[: corrige la kurtosis positiva residual.
 e −e 
x

Podemos considerar tres transformaciones para normalidad, homogeneidad de varianzas y linealidad:


transformación logarítmica, transformación raíz cuadrada y transformación inversa. Para linealidad también
podemos utilizar la transformación cuadrática x( ).
2

11
7. Bibliografía
http://www.unavarra.es/estadistica/LE/Estadistica/
http://www.campusvirtual.uma.es/est_fisio/apuntes/
www.eumed.net/cursecon/libreria/2004/jsf/6.pdf
www.uclm.es/profesorado/jmezo/estadistica/t2.pdf
http://www.eumed.net/cursecon/libreria/drm/drm-estad.pdf
http://www.eui.upm.es/~acorral/material/index.html
http://www.utexas.edu/courses/schwab/sw388r7/SolvingProblems/ComputingTransformations.ppt
http://www.colfa.utsa.edu/Sociology/masters/manip.html
www.unavarra.es/estadistica/I.T.I./I.T.I.Mecanica/Metodos estadisticos de la Ingenieria/Curso 2004-
05/Apuntes estadistica/VA_continuas_1.pdf
www.unavarra.es/estadistica/I.T.I./I.T.I.Mecanica/Metodos estadisticos de la Ingenieria/Curso 2004-
05/Apuntes estadistica/VA_continuas_2.pdf
www.unavarra.es/estadistica/I.T.I./I.T.I.Mecanica/Metodos estadisticos de la Ingenieria/Curso 2004-
05/Apuntes estadistica/VA_discretas.pdf
www.chups.fr/polys/biostats/poly/stats.pdf
www.anu.edu.au/nceph/surfstat/surfstat-home/contents.html
www.uvp5.univ-paris5.fr/staticmed/E-STAT/PlantStatPCEM1.htm
www.eumed.net/libros/2006a/rmss/index.htm
ftp.medprev.uma.es/libro/html.htm
idea.uab.es/fklijn/bio/indexold.htm
halweb.uc3m.es/omar/taller/TALLER.html

Libros

Martínez González MA, De Irala Estévez J, Faulín Fajardo FJ. Bioestadística amigable. Madrid: Díaz de
Santos, 2001
Spiegel, MR. Estadística, 2ª Edición. México: McGraw-Hill, 2000.
Horra Navarro, J. Estadística aplicada, 3ª Edición. Madrid: Díaz de Santos, 2003
A.Martín Andres, J.de D. Luana del Castillo. Bioestadística para las Ciencias de la Salud, 5ª Edición. Madrid:
Norma, 2004

12

You might also like